Requests模块 verify=Flase参数 证书过滤还是报错!
本帖最后由 Twilight6 于 2020-5-23 19:52 编辑from fake_useragent import UserAgent
import requests
headers = {
'User-Agent': UserAgent().chrome
}
url = 'https://www.globalsign.cn/?bd_vid=11534392364652768321'
response = requests.get(url,verify = False, headers=headers)
print(response.text)
出现的错误
requests.exceptions.SSLError: HTTPSConnectionPool(host='www.globalsign.cn', port=443): Max retries exceeded with url: /?bd_vid=11534392364652768321 (Caused by SSLError(SSLError(1, ' bad ecpoint (_ssl.c:1108)')))
上面不是已经吧 设置了verify = False 过滤了证书 ,为什么还是会报错?
网站是我随便百度的一个有ssl证书的网站,难道是这个网站问题,反爬?
萌新,求大佬解疑!!!! 本帖最后由 suchocolate 于 2020-4-20 10:41 编辑
我没有fake_useragent包,我手工随便指了UA,用你的代码测试成功的:
headers = {'User-Agent': 'firefox'}
suchocolate 发表于 2020-4-20 10:37
我没有fake_useragent包,我手工随便指了UA,用你的代码测试成功的:
我用你的UA还是报错 SSLError {:9_230:} Twilight6 发表于 2020-4-20 11:20
我用你的UA还是报错 SSLError
那可能是网络问题,你换个网络试试。 试试装一下pyopenssl? NZND 发表于 2020-4-20 22:22
试试装一下pyopenssl?
没用过这个{:9_241:} 本帖最后由 _2_ 于 2020-6-26 19:38 编辑
Twilight6 发表于 2020-4-21 11:47
没用过这个
你应该把 headers 补充完整,反正我是没用过你这个方法
UserAgent().chrome
还是自己写比较牢靠
错误原因是 URL 超出了最大尝试次数,
你可以改一下默认值 _2_ 发表于 2020-4-21 12:34
你应该把 headers 补充完整,反正我是没用过你这个方法
还是自己写比较牢靠
错误是SSLerror是证书错误吧。。。这个跟UA没关系的 我不用fake_useragent也是一样的{:9_234:} Twilight6 发表于 2020-4-21 12:48
错误是SSLerror是证书错误吧。。。这个跟UA没关系的 我不用fake_useragent也是一样的
……我对 Python 的基础语法比较熟悉,
但很少用爬虫,我也只能帮到你这里了 _2_ 发表于 2020-4-21 12:54
……我对 Python 的基础语法比较熟悉,
但很少用爬虫,我也只能帮到你这里了
好吧没事还是要谢谢你!{:9_225:} verify = False 主要是给 post方法的{:10_278:}
页:
[1]