鱼C论坛

 找回密码
 立即注册
查看: 1048|回复: 1

代理ip问题

[复制链接]
发表于 2018-7-5 16:16:53 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
本帖最后由 幽梦三影 于 2018-7-5 18:05 编辑
  1. import random
  2. import urllib.request
  3. import re
  4. from bs4 import BeautifulSoup

  5. ip = [
  6. "221.228.17.172:8181",
  7. "118.31.220.3:8080",
  8. "61.135.217.7:80"
  9. ]
  10. user_pool = [
  11. "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/49.0.2623.221 Safari/537.36 SE 2.X MetaSr 1.0",
  12. "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; Trident/4.0; Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1) ; Maxthon/3.0)",
  13. "Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 5.1; Trident/4.0; Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1) ;  QIHU 360EE)"
  14. ]
  15. current_ip = random.choice(ip)
  16. current_user = random.choice(user_pool)

  17. headers = ("User-Agent",current_user)
  18. opener = urllib.request.build_opener()
  19. opener.addheaders = [headers]
  20. urllib.request.install_opener(opener)

  21. p = urllib.request.ProxyHandler({"http":current_ip})
  22. opener = urllib.request.build_opener(p,urllib.request.HTTPHandler)
  23. urllib.request.install_opener(opener)

  24. url = "http://www.taobao.com"
  25. html = urllib.request.urlopen(url).read()
  26. html = BeautifulSoup(html)
  27. link = html.find_all("a",href = True)
  28. #print(html)
  29. for i in link:
  30.     print(i.get("href"))
复制代码
用代理ip爬取淘宝连接却都是有道,还有小甲鱼在视频里说的爬取妹子图会出现其他的图到底是怎么回事
Screenshot_2018-07-05-16-14-19-898_com.hipipal.qpy3.png
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

发表于 2018-7-5 17:58:35 | 显示全部楼层
你检查一下url,代理IP是避免服务器检测出你的访问是爬虫和封了ip,妹子图里的图片被加密了
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2025-12-31 14:08

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表