爬虫用Requests还是urllib好?
最近在写多线程+代理+爬虫项目的时候发现 urllib 似乎更加好用。下面说明笔者实践发现这两者的不同:
requests 能够使用proxy 但是存在一个问题:
当多线程 多次调用该requests.get(url,proxies)方法的时候 会向代理服务器发出很多建立连接的请求。
线程一多 建立请求一多 这会导致后续无法获取代理。
urllib 使用opener设置代理其只建一个opener 故只有一次代理服务器的连接
之后线程调用urllib.request.Request 方法都会基于这次连接上。不需要开辟新的代理通道
在学习中 可能还没有学到你这么深我初期还是requests用的多 学习中 {:5_94:}还没学到这个地步 urllib 吧,其实requests的组件很多也是借鉴了urllib,只是requests比较简介,容易学 大佬大佬 学习学习 学习学习,顺便领个币{:10_250:}{:10_250:} 其实, urllib和requests的关系就像c++和python一样, 你写一个项目, 你可能会用c++处理底层的运算, 因为快, 但高层的算法就要用python, 因为语法简单, 所以, 主要看爬取的是什么网页, 需要怎样的通用性(爬指定的一个还是符合条件的一群) 写了这么多, 没有鱼币{:10_266:} 还是没有{:10_266:} 我*{:10_266:} 币还有吗{:10_266:} requests适合写小型爬虫
urllib适合写中型爬虫 66666 其实,我想得个鱼币…… 还没开始学{:9_222:} 领个币 {:5_90:}
页:
[1]
2