Twilight6 发表于 2020-4-20 10:30:18

Requests模块 verify=Flase参数 证书过滤还是报错!

本帖最后由 Twilight6 于 2020-5-23 19:52 编辑

from fake_useragent import UserAgent
import requests

headers = {
    'User-Agent': UserAgent().chrome
}
url = 'https://www.globalsign.cn/?bd_vid=11534392364652768321'

response = requests.get(url,verify = False, headers=headers)
print(response.text)

出现的错误
requests.exceptions.SSLError: HTTPSConnectionPool(host='www.globalsign.cn', port=443): Max retries exceeded with url: /?bd_vid=11534392364652768321 (Caused by SSLError(SSLError(1, ' bad ecpoint (_ssl.c:1108)')))

上面不是已经吧 设置了verify = False 过滤了证书 ,为什么还是会报错?

网站是我随便百度的一个有ssl证书的网站,难道是这个网站问题,反爬?

萌新,求大佬解疑!!!!

suchocolate 发表于 2020-4-20 10:37:04

本帖最后由 suchocolate 于 2020-4-20 10:41 编辑

我没有fake_useragent包,我手工随便指了UA,用你的代码测试成功的:
headers = {'User-Agent': 'firefox'}

Twilight6 发表于 2020-4-20 11:20:54

suchocolate 发表于 2020-4-20 10:37
我没有fake_useragent包,我手工随便指了UA,用你的代码测试成功的:

我用你的UA还是报错 SSLError   {:9_230:}

suchocolate 发表于 2020-4-20 12:55:13

Twilight6 发表于 2020-4-20 11:20
我用你的UA还是报错 SSLError

那可能是网络问题,你换个网络试试。

NZND 发表于 2020-4-20 22:22:26

试试装一下pyopenssl?

Twilight6 发表于 2020-4-21 11:47:28

NZND 发表于 2020-4-20 22:22
试试装一下pyopenssl?

没用过这个{:9_241:}

_2_ 发表于 2020-4-21 12:34:36

本帖最后由 _2_ 于 2020-6-26 19:38 编辑

Twilight6 发表于 2020-4-21 11:47
没用过这个

你应该把 headers 补充完整,反正我是没用过你这个方法
UserAgent().chrome
还是自己写比较牢靠

错误原因是 URL 超出了最大尝试次数,
你可以改一下默认值

Twilight6 发表于 2020-4-21 12:48:02

_2_ 发表于 2020-4-21 12:34
你应该把 headers 补充完整,反正我是没用过你这个方法

还是自己写比较牢靠


错误是SSLerror是证书错误吧。。。这个跟UA没关系的 我不用fake_useragent也是一样的{:9_234:}

_2_ 发表于 2020-4-21 12:54:08

Twilight6 发表于 2020-4-21 12:48
错误是SSLerror是证书错误吧。。。这个跟UA没关系的 我不用fake_useragent也是一样的

……我对 Python 的基础语法比较熟悉,
但很少用爬虫,我也只能帮到你这里了

Twilight6 发表于 2020-4-21 14:44:32

_2_ 发表于 2020-4-21 12:54
……我对 Python 的基础语法比较熟悉,
但很少用爬虫,我也只能帮到你这里了

好吧没事还是要谢谢你!{:9_225:}

Stubborn 发表于 2020-6-12 23:31:03

verify = False 主要是给 post方法的{:10_278:}
页: [1]
查看完整版本: Requests模块 verify=Flase参数 证书过滤还是报错!