鱼C论坛

 找回密码
 立即注册
查看: 3080|回复: 2

[技术交流] [作品展示]第一次写的壁纸爬虫——(来自一个python小白,有一就有二233)

[复制链接]
发表于 2020-1-22 10:57:33 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
    跟着小甲鱼老师学了这段时间的基础,昨天尝试做了一个壁纸的爬虫.
来自小白的第一次,代码放下,请大佬们批评指正,给出优化意见就更好了!!!
import requests
import re
import os

def get_html(url):
    r = requests.get(url)
    #返回壁纸首页信息,用来提取壁纸列表
    return r.text                                                                                      

def get_img_urls(img_num):
    img_url = f'http://www.win4000.com/wallpaper_detail_{img_num}_1.html'
    r = requests.get(img_url)
    #提取系列壁纸的总页数
    em = int(re.findall(r'<em>(.*?)</em>', r.text)[0]) + 1
    img_urls = [f'http://www.win4000.com/wallpaper_detail_{img_num}_{i}.html' for i in range(1,em)]
    #返回系列壁纸的网页列表【】
    return img_urls                                                                                    

def get_src(img_url):
    r = requests.get(img_url)
    src = re.findall('<img class="pic-large" src="(.*?)" alt=".*?" title=".*?"/>',r.text)[0]
    down_dir = re.findall('<img class="pic-large" src=".*?" alt="(.*?)" title=".*?"/>',r.text)[0]
    #返回壁纸下载源src,和系列名
    return src,down_dir                                                                 

def save_img(url,down_dir):
    #创建保存路径
    if not os.path.exists(down_dir):
        os.mkdir(down_dir)
    r = requests.get(url)
    path = down_dir + '/' + url.split('/')[-1]
    try:
        with open(path,'wb') as f:
            f.write(r.content)
            print(path,'\t\t壁纸保存成功√')
    except Exception as e:
        print(e)

def main():
    input('---按任意键开始爬取壁纸---(默认为当前路径)\n')
    #美女壁纸的5页urls                                                                                                       
    urls = [f'http://www.win4000.com/wallpaper_2285_0_0_{i}.html' for i in range(1,6)]        
    for url in urls:                           
        src_list = []                    
        html = get_html(url)
        #获取当前页面的所有链接数字(之后做系列url拼接)
        lst = re.findall('<a href=".*?(\d*?).html" alt=".*?" title=".*?" target="_blank">',html)             
        print('正在加载资源...')
        for img_num in lst:
            img_urls = get_img_urls(img_num)                                                               
            if img_urls:
                for img_url in img_urls:                                                                   
                    (src,down_dir) = get_src(img_url)
                    save_img(src,down_dir)                                                                 

if __name__ == '__main__':
    main()
    print('程序执行完成!')

想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2021-2-27 20:03:45 | 显示全部楼层
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2021-1-28 00:31:00 | 显示全部楼层
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2025-1-16 10:57

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表