鱼C论坛

 找回密码
 立即注册
查看: 3994|回复: 0

[作品展示] 堆糖爬虫

[复制链接]
发表于 2022-7-20 18:34:21 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
因为,本人能力问题爬图片不能怕全。
而且,也没有多线程。
from urllib.request import *
import random
import os
from urllib.error import *
import re
import time
f_img = []
url = input('请输入网址')
head ={'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/104.0.5112.48 Safari/537.36 Edg/104.0.1293.25'}
html = None

def get_html(url):
    global html
    url =url
    head ={'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/104.0.5112.48 Safari/537.36 Edg/104.0.1293.25'}
    req = Request(url,None,head)
    response = urlopen(req)
    html = response.read().decode('utf-8')
    


def find_img():
    global html
    global f_img
    
    while True:
        
        
        xx = re.search(r'data-iid="" src="*"',html)
        yy = re.search(r'thumb\.400_0\.jpg" height',html)
        
        if yy == None:
            break;
        else:
            xxx = str(yy)
            xxx = xxx[24:28]
            yyy = str(xx)
            yyy = yyy[30:34]
            yyy = int(yyy)
            xxx = int(xxx)
            xxx = xxx+15
            y = html[yyy:xxx]
            print(y)
            savemm(y,y)
            html = html[xxx:]

def savemm(url,y):
    y = url[50:86]
    y = y+str(time.time())
    y = y+'.jpg'
    try:
        url = url
        iplist = ['58.221.154.46:9091','112.14.40.137:9091','223.94.85.131:9091','120.237.144.200:9091','183.222.217.168:9091','123.180.189.135:9091','222.179.155.90:9091','183.239.62.251:9091','221.181.238.59:9091','112.14.40.137:9091','59.56.142.185:9091','222.77.85.15:9091']
        head ={'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/104.0.5112.48 Safari/537.36 Edg/104.0.1293.25'}
        x = random.choice(iplist)
        proxy_support = ProxyHandler({'http':x})
        opener = build_opener(proxy_support)
        opener.addheaders = [('User-Agent', 'Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/39.0.2171.65 Safari/537.36')]
        install_opener(opener)
        response = urlopen(url)
        html = response.read()
        
        with open(y,'wb') as f:
            f.write(html)
            f.close()
    except:
        savemm(url,y)
        
        
    
        

get_html(url)

find_img()

评分

参与人数 1荣誉 +5 鱼币 +5 贡献 +3 收起 理由
python爱好者. + 5 + 5 + 3 鱼C有你更精彩^_^

查看全部评分

想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2024-11-16 14:08

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表