鱼C论坛

 找回密码
 立即注册
查看: 1253|回复: 0

[技术交流] 爬虫代理IP自动分配失败的原因

[复制链接]
发表于 2021-7-22 14:51:39 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
最近有小伙伴使用爬虫代理的时候发现一个问题,通过爬虫代理发起请求之后,并没有实现每个HTTP请求自动分配不同的代理IP,而是所有请求都是保持相同代理IP固定使用20秒之后,才会切换新的代理IP,这是什么原因导致的呢?小伙伴提供的部分代码如下:
    #! -*- encoding:utf-8 -*-

    import requests
    import random

    # 要访问的目标页面
    targetUrl = "http://httpbin.org/ip"

    # 要访问的目标HTTPS页面
    # targetUrl = "https://httpbin.org/ip"

    # 代理服务器(产品官网 www.16yun.cn)
    proxyHost = "t.16yun.cn"
    proxyPort = "31111"

    # 代理验证信息
    proxyUser = "username"
    proxyPass = "password"

    proxyMeta = "http://%(user)s:%(pass)s@%(host)s:%(port)s" % {
        "host" : proxyHost,
        "port" : proxyPort,
        "user" : proxyUser,
        "pass" : proxyPass,
    }

    # 设置 http和https访问都是用HTTP代理
    proxies = {
        "http"  : proxyMeta,
        "https" : proxyMeta,
    }


    #  设置IP切换头
    tunnel = random.randint(1,10000)
    
    
    headers = {
        ‘Connection’:'keep-alive',
        'Accept-Language':'zh',
        "Proxy-Tunnel": str(tunnel)
    }

    for i in range(100):
        resp = requests.get(targetUrl, proxies=proxies, headers=headers)
        print resp.status_code
        print resp.text
        time.sleep(0.2)

经过调试分析,上面的代码主要是两个问题:
1、‘Connection’:'keep-alive' 需要关闭
keep-alive 是客户端和服务端的协议规范,开启 keep-alive,则服务端在返回 response 后不关闭 TCP 连接,接收完响应报文后,客户端也不关闭连接,发送下一个 HTTP 请求时会重用该连接,这就导TCP的链接不断开,因此爬虫代理的自动IP切换就失效了。导致一个代理IP会长期保持使用,直到该代理IP的有效时间20秒到期之后,强制关闭TCP连接切换新的代理IP。
2、tunnel 参数设置错误
tunnel 是用来控制代理IP切换的控制参数。爬虫代理会检查tunnel的数值,数值不同就将HTTP请求随机分配一个新代理IP转发,tunnel相同就将HTTP请求分配相同的代理IP转发。因此为实现每个HTTP请求通过不同的代理IP转发,就应该在for下面实现tunnel = random.randint(1,10000),确保每次HTTP请求中的tunnel是不同的数值。
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2025-1-14 01:00

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表