鱼C论坛

 找回密码
 立即注册
查看: 818|回复: 0

[作品展示] requests+beautifulsoup 使用select/ccs选择器爬取

[复制链接]
发表于 2020-4-3 14:41:40 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
本帖最后由 加冰青柠檬 于 2020-4-3 14:48 编辑

                        新人第一次发帖,跟着甲鱼老师学习了这么久,刚开始只是为了参加大学生数学建模比赛学习python爬虫,入坑之后跟着甲鱼老师复习了一下C语言,后来又跟着小甲鱼学习数据结构与算法,然后又跟了零基础入门学习python,现在终于开始了我一开始的目的,爬取了妹子图的网站推荐图片,这也是第一次我自主的完成爬虫实战,妹子什么的不重要,主要就是和大家交流交流技术,有什么不到位还请大家指点指点
模块清单:
        requests
        BeautifulSoup
        lxml TIM图片20200403143940.png
  1. import requests
  2. from bs4 import BeautifulSoup
  3. import lxml
  4. import os



  5. def get_home_url(home_url):
  6.     headers={"user-agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.100 Safari/537.36"}
  7.     res=requests.get(home_url,headers=headers)
  8.     soup=BeautifulSoup(res.text,"lxml")
  9.     soup_mm_url=soup.select(".postlist #pins .lazy  ")
  10.     return soup_mm_url



  11. def get_mm_url(soup_mm_url):
  12.     load_url = {}
  13.     for count in soup_mm_url:
  14.         # print(count.get("data-original"))
  15.         load_url[count.get("alt")]=count.get("data-original")
  16.         # print(count.get("alt"))
  17.     save_img(load_url)

  18. def os_op():
  19.     os.mkdir("XXOO_max")
  20.     os.chdir("XXOO_max")

  21. # print(load_url)
  22. def save_img(load_url):
  23.     for i in load_url:
  24.         url=load_url[i]
  25.         headers_mm={"user-agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.100 Safari/537.36",
  26.             "referer": "https://www.mzitu.com/"}
  27.         resp=requests.get(url,headers=headers_mm)
  28.         filename=i+".jpg"
  29.         # print(filename)
  30.         with open(filename,"wb") as fp:
  31.             fp.write(resp.content)

  32. def main():
  33.     os_op()
  34.     for page in range(2,10):
  35.         home_url = "https://www.mzitu.com/page/"
  36.         home_url=home_url+str(page)
  37.         print("开始爬取第%d页图片"%page)
  38.         print(home_url)
  39.         soup_mm_url=get_home_url(home_url)
  40.         get_mm_url(soup_mm_url)

  41. if __name__ == "__main__":
  42.     main()
复制代码

另外爬完之后我笔记本的网断了,???,不会是我家路由器担心的身体吧,,,现在我用的是手机热点,各位鱼油有什么好办法吗
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2025-4-21 05:34

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表