鱼C论坛

 找回密码
 立即注册
查看: 5150|回复: 5

[已解决]小白爬虫代理设置问题求助,requests只要走代理就无法连接

[复制链接]
发表于 2021-9-24 03:41:12 | 显示全部楼层 |阅读模式
5鱼币
本帖最后由 zttwm 于 2021-9-24 12:17 编辑

RT,由于刚学了爬虫,迫不及待地想在工作中应用,由于尝试代理设置出问题了,所以拿百度试水(https)代理,IP从 http://www.ip3366.net/ 爬过来的,筛选出https代理,然后去拿百度试水,只要返回状态码就算代理挂成功了,然鹅,29个代理站点每个尝试10此,全部HTTPS代理全部连接失败,连状态码都没有返回。
赶紧百度, ,找到的解决办法是[不要挂代理][不要挂代理][不要挂代理]!!!!


错误信息如下:

Traceback (most recent call last):
  File "D:\test\venv\lib\site-packages\urllib3\connectionpool.py", line 696, in urlopen
    self._prepare_proxy(conn)
  File "D:\test\venv\lib\site-packages\urllib3\connectionpool.py", line 964, in _prepare_proxy
    conn.connect()
  File "D:\test\venv\lib\site-packages\urllib3\connection.py", line 364, in connect
    conn = self._connect_tls_proxy(hostname, conn)
  File "D:\test\venv\lib\site-packages\urllib3\connection.py", line 501, in _connect_tls_proxy
    socket = ssl_wrap_socket(
  File "D:\test\venv\lib\site-packages\urllib3\util\ssl_.py", line 453, in ssl_wrap_socket
    ssl_sock = _ssl_wrap_socket_impl(sock, context, tls_in_tls)
  File "D:\test\venv\lib\site-packages\urllib3\util\ssl_.py", line 495, in _ssl_wrap_socket_impl
    return ssl_context.wrap_socket(sock)
  File "C:\Users\erdd\AppData\Local\Programs\Python\Python39\lib\ssl.py", line 500, in wrap_socket
    return self.sslsocket_class._create(
  File "C:\Users\erdd\AppData\Local\Programs\Python\Python39\lib\ssl.py", line 1040, in _create
    self.do_handshake()
  File "C:\Users\erdd\AppData\Local\Programs\Python\Python39\lib\ssl.py", line 1309, in do_handshake
    self._sslobj.do_handshake()
FileNotFoundError: [Errno 2] No such file or directory

During handling of the above exception, another exception occurred:

Traceback (most recent call last):
  File "D:\test\venv\lib\site-packages\requests\adapters.py", line 439, in send
    resp = conn.urlopen(
  File "D:\test\venv\lib\site-packages\urllib3\connectionpool.py", line 755, in urlopen
    retries = retries.increment(
  File "D:\test\venv\lib\site-packages\urllib3\util\retry.py", line 574, in increment
    raise MaxRetryError(_pool, url, error or ResponseError(cause))
urllib3.exceptions.MaxRetryError: HTTPSConnectionPool(host='www.baidu.com', port=443): Max retries exceeded with url: / (Caused by ProxyError('Cannot connect to proxy.', FileNotFoundError(2, 'No such file or directory')))

During handling of the above exception, another exception occurred:

Traceback (most recent call last):
  File "D:\test\test2.py", line 6, in <module>
    resp=requests.get(url,headers=head,proxies=prox,verify=False)
  File "D:\test\venv\lib\site-packages\requests\api.py", line 75, in get
    return request('get', url, params=params, **kwargs)
  File "D:\test\venv\lib\site-packages\requests\api.py", line 61, in request
    return session.request(method=method, url=url, **kwargs)
  File "D:\test\venv\lib\site-packages\requests\sessions.py", line 542, in request
    resp = self.send(prep, **send_kwargs)
  File "D:\test\venv\lib\site-packages\requests\sessions.py", line 655, in send
    r = adapter.send(request, **kwargs)
  File "D:\test\venv\lib\site-packages\requests\adapters.py", line 510, in send
    raise ProxyError(e, request=request)
requests.exceptions.ProxyError: HTTPSConnectionPool(host='www.baidu.com', port=443): Max retries exceeded with url: / (Caused by ProxyError('Cannot connect to proxy.', FileNotFoundError(2, 'No such file or directory')))

或是

Traceback (most recent call last):
  File "D:\test\venv\lib\site-packages\urllib3\connection.py", line 174, in _new_conn
    conn = connection.create_connection(
  File "D:\test\venv\lib\site-packages\urllib3\util\connection.py", line 96, in create_connection
    raise err
  File "D:\test\venv\lib\site-packages\urllib3\util\connection.py", line 86, in create_connection
    sock.connect(sa)
ConnectionRefusedError: [WinError 10061] 由于目标计算机积极拒绝,无法连接。

During handling of the above exception, another exception occurred:

Traceback (most recent call last):
  File "D:\test\venv\lib\site-packages\urllib3\connectionpool.py", line 696, in urlopen
    self._prepare_proxy(conn)
  File "D:\test\venv\lib\site-packages\urllib3\connectionpool.py", line 964, in _prepare_proxy
    conn.connect()
  File "D:\test\venv\lib\site-packages\urllib3\connection.py", line 358, in connect
    conn = self._new_conn()
  File "D:\test\venv\lib\site-packages\urllib3\connection.py", line 186, in _new_conn
    raise NewConnectionError(
urllib3.exceptions.NewConnectionError: <urllib3.connection.HTTPSConnection object at 0x000001CD1AB9D280>: Failed to establish a new connection: [WinError 10061] 由于目标计算机积极拒绝,无法连接。

During handling of the above exception, another exception occurred:

Traceback (most recent call last):
  File "D:\test\venv\lib\site-packages\requests\adapters.py", line 439, in send
    resp = conn.urlopen(
  File "D:\test\venv\lib\site-packages\urllib3\connectionpool.py", line 755, in urlopen
    retries = retries.increment(
  File "D:\test\venv\lib\site-packages\urllib3\util\retry.py", line 574, in increment
    raise MaxRetryError(_pool, url, error or ResponseError(cause))
urllib3.exceptions.MaxRetryError: HTTPSConnectionPool(host='www.baidu.com', port=443): Max retries exceeded with url: / (Caused by ProxyError('Cannot connect to proxy.', NewConnectionError('<urllib3.connection.HTTPSConnection object at 0x000001CD1AB9D280>: Failed to establish a new connection: [WinError 10061] 由于目标计算机积极拒绝,无法连接。')))

During handling of the above exception, another exception occurred:

Traceback (most recent call last):
  File "D:\test\test2.py", line 6, in <module>
    resp=requests.get(url,headers=head,proxies=prox,verify=False)
  File "D:\test\venv\lib\site-packages\requests\api.py", line 75, in get
    return request('get', url, params=params, **kwargs)
  File "D:\test\venv\lib\site-packages\requests\api.py", line 61, in request
    return session.request(method=method, url=url, **kwargs)
  File "D:\test\venv\lib\site-packages\requests\sessions.py", line 542, in request
    resp = self.send(prep, **send_kwargs)
  File "D:\test\venv\lib\site-packages\requests\sessions.py", line 655, in send
    r = adapter.send(request, **kwargs)
  File "D:\test\venv\lib\site-packages\requests\adapters.py", line 510, in send
    raise ProxyError(e, request=request)
requests.exceptions.ProxyError: HTTPSConnectionPool(host='www.baidu.com', port=443): Max retries exceeded with url: / (Caused by ProxyError('Cannot connect to proxy.', NewConnectionError('<urllib3.connection.HTTPSConnection object at 0x000001CD1AB9D280>: Failed to establish a new connection: [WinError 10061] 由于目标计算机积极拒绝,无法连接。')))



为了确认不是代理服务器的问题,直接局域网内,设置了一台代理机子,然后尝试,还是上面的错误:

  1. import requests

  2. prox={'https':'https://192.168.1.205:7890'}
  3. url='https://www.baidu.com'   #这个地方IP换了一堆,只要是https都没有用
  4. head={'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:92.0) Gecko/20100101 Firefox/92.0'}
  5. resp=requests.get(url,headers=head,proxies=prox,verify=False)
  6. print(resp.text)
复制代码



这是代码。。

顺便附上测试用的代码:
  1. import requests
  2. import time
  3. from lxml import etree

  4. head={'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:92.0) Gecko/20100101 Firefox/92.0'}
  5. ip_porxy_list=[]
  6. for ip_source_page in range (11):
  7.     time.sleep(1)
  8.     url_ip_source=f'http://www.ip3366.net/?stype=1&page={ip_source_page}'
  9.     resp_ip=requests.get(url_ip_source,headers=head)
  10.     resp_tmp=etree.HTML(resp_ip.content)
  11.     ip_type=resp_tmp.xpath('/html/body/div[3]/div[4]/table/tbody//td[4]/text()')
  12.     type_num=0

  13.     for ip_type_extra in ip_type:
  14.         type_num+=1
  15.         if ip_type_extra=='HTTPS':
  16.             ip_data=resp_tmp.xpath(f'/html/body/div[3]/div[4]/table/tbody/tr[{type_num}]/td[1]/text()')[0]
  17.             ip_port=resp_tmp.xpath(f'/html/body/div[3]/div[4]/table/tbody/tr[{type_num}]/td[2]/text()')[0]
  18.             ip_proxy=f'{ip_data}:{ip_port}'
  19.             ip_porxy_list.append(ip_proxy)
  20.             print(ip_porxy_list)
  21.     resp_ip.close()   #上半部分为取得HTTPS代理的IP和端口信息的,已添加print输出

  22. #后半部分为测试,只要有状态码返回就算成功了,但是结果是满屏的failed
  23. url='https://www.baidu.com'
  24. for proxip in ip_porxy_list:
  25.     try_times = 0
  26.     prox={'https':f'https://{proxip}'}
  27.     for i in range(10):
  28.         try:
  29.             resp=requests.get(url,headers=head,proxies=prox,verify=False)
  30.             if resp.status_code == 200:
  31.                 print(resp.text)
  32.                 print(proxip)
  33.                 resp.close()
  34.                 break
  35.             else:
  36.                 print(resp.status_code)
  37.                 resp.close()
复制代码


自己找到了原因(此时已经回答到了4楼),代理网址使用了https://的关系,用http://的话代理能用。但是啊,用http去连代理,肯定不安全,既然设置了悬赏,那有没有大佬能帮忙看看怎么用https去连代理?
最佳答案
2021-9-24 03:41:13
zttwm 发表于 2021-9-24 12:18
私下和大佬讨论了一番算是找到原因了,但是又有新的疑惑,所以改了下问题

验证代理能不能用,要看使用代理后访问,对方看到的IP是不是代理的IP,而不是状态码。下面的代码是验证代理可不可用的方法:
  1. import requests


  2. def main():
  3.     proxy = {'http': 'ip:port'}
  4.     url = 'https://my.ip.cn/api/index?ip=&type=0'
  5.     headers = {'user-agent': 'firefox', 'Referer': 'https://my.ip.cn/', 'X-Requested-With': 'XMLHttpRequest'}
  6.     r = requests.get(url, headers=headers, proxies=proxy)
  7.     print(r.text)


  8. if __name__ == '__main__':
  9.     main()
复制代码

另外https的代理,要看你用的代理支不支持,如果支持,按照代理供应商的信息,把http改成https即可。

最佳答案

查看完整内容

验证代理能不能用,要看使用代理后访问,对方看到的IP是不是代理的IP,而不是状态码。下面的代码是验证代理可不可用的方法: 另外https的代理,要看你用的代理支不支持,如果支持,按照代理供应商的信息,把http改成https即可。
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

发表于 2021-9-24 03:41:13 | 显示全部楼层    本楼为最佳答案   
zttwm 发表于 2021-9-24 12:18
私下和大佬讨论了一番算是找到原因了,但是又有新的疑惑,所以改了下问题

验证代理能不能用,要看使用代理后访问,对方看到的IP是不是代理的IP,而不是状态码。下面的代码是验证代理可不可用的方法:
  1. import requests


  2. def main():
  3.     proxy = {'http': 'ip:port'}
  4.     url = 'https://my.ip.cn/api/index?ip=&type=0'
  5.     headers = {'user-agent': 'firefox', 'Referer': 'https://my.ip.cn/', 'X-Requested-With': 'XMLHttpRequest'}
  6.     r = requests.get(url, headers=headers, proxies=proxy)
  7.     print(r.text)


  8. if __name__ == '__main__':
  9.     main()
复制代码

另外https的代理,要看你用的代理支不支持,如果支持,按照代理供应商的信息,把http改成https即可。
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

发表于 2021-9-24 06:44:26 From FishC Mobile | 显示全部楼层
免费代理几乎都不可用,所以想玩代理就要花银子
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

 楼主| 发表于 2021-9-24 08:48:31 | 显示全部楼层
wp231957 发表于 2021-9-24 06:44
免费代理几乎都不可用,所以想玩代理就要花银子

花银子的也一样,自己搭的代理服务器照样不行,浏览器挂上去就能很好地跑,一用爬虫就没反应了
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

发表于 2021-9-24 10:13:42 | 显示全部楼层
“只要返回状态码就算代理挂成功了”,这个不一定的。而且从报错上看,就是代理不行。
自建的代理,在同一内网?
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

 楼主| 发表于 2021-9-24 12:18:15 | 显示全部楼层
suchocolate 发表于 2021-9-24 10:13
“只要返回状态码就算代理挂成功了”,这个不一定的。而且从报错上看,就是代理不行。
自建的代理,在同一 ...

私下和大佬讨论了一番算是找到原因了,但是又有新的疑惑,所以改了下问题
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2025-6-18 05:33

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表