鱼C论坛

 找回密码
 立即注册
查看: 4786|回复: 0

[作品展示] 堆糖爬虫

[复制链接]
发表于 2022-7-20 18:34:21 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
因为,本人能力问题爬图片不能怕全。
而且,也没有多线程。
  1. from urllib.request import *
  2. import random
  3. import os
  4. from urllib.error import *
  5. import re
  6. import time
  7. f_img = []
  8. url = input('请输入网址')
  9. head ={'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/104.0.5112.48 Safari/537.36 Edg/104.0.1293.25'}
  10. html = None

  11. def get_html(url):
  12.     global html
  13.     url =url
  14.     head ={'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/104.0.5112.48 Safari/537.36 Edg/104.0.1293.25'}
  15.     req = Request(url,None,head)
  16.     response = urlopen(req)
  17.     html = response.read().decode('utf-8')
  18.    


  19. def find_img():
  20.     global html
  21.     global f_img
  22.    
  23.     while True:
  24.         
  25.         
  26.         xx = re.search(r'data-iid="" src="*"',html)
  27.         yy = re.search(r'thumb\.400_0\.jpg" height',html)
  28.         
  29.         if yy == None:
  30.             break;
  31.         else:
  32.             xxx = str(yy)
  33.             xxx = xxx[24:28]
  34.             yyy = str(xx)
  35.             yyy = yyy[30:34]
  36.             yyy = int(yyy)
  37.             xxx = int(xxx)
  38.             xxx = xxx+15
  39.             y = html[yyy:xxx]
  40.             print(y)
  41.             savemm(y,y)
  42.             html = html[xxx:]

  43. def savemm(url,y):
  44.     y = url[50:86]
  45.     y = y+str(time.time())
  46.     y = y+'.jpg'
  47.     try:
  48.         url = url
  49.         iplist = ['58.221.154.46:9091','112.14.40.137:9091','223.94.85.131:9091','120.237.144.200:9091','183.222.217.168:9091','123.180.189.135:9091','222.179.155.90:9091','183.239.62.251:9091','221.181.238.59:9091','112.14.40.137:9091','59.56.142.185:9091','222.77.85.15:9091']
  50.         head ={'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/104.0.5112.48 Safari/537.36 Edg/104.0.1293.25'}
  51.         x = random.choice(iplist)
  52.         proxy_support = ProxyHandler({'http':x})
  53.         opener = build_opener(proxy_support)
  54.         opener.addheaders = [('User-Agent', 'Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/39.0.2171.65 Safari/537.36')]
  55.         install_opener(opener)
  56.         response = urlopen(url)
  57.         html = response.read()
  58.         
  59.         with open(y,'wb') as f:
  60.             f.write(html)
  61.             f.close()
  62.     except:
  63.         savemm(url,y)
  64.         
  65.         
  66.    
  67.         

  68. get_html(url)

  69. find_img()
复制代码

评分

参与人数 1荣誉 +5 鱼币 +5 贡献 +3 收起 理由
python爱好者. + 5 + 5 + 3 鱼C有你更精彩^_^

查看全部评分

小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2025-4-28 02:55

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表