鱼C论坛

 找回密码
 立即注册
查看: 2003|回复: 2

[已解决]爬虫

[复制链接]
发表于 2021-1-22 17:18:44 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
有没有大佬有能爬百度图片的爬虫。我在B站上找到的视频上的程序都用不了,求大佬发程序
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

发表于 2021-1-22 17:24:08 | 显示全部楼层    本楼为最佳答案   
嗯,就请参考这个

https://fishc.com.cn/forum.php?m ... 113&pid=5204619
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2021-1-22 17:30:40 | 显示全部楼层
  1. import requests
  2. from lxml import etree
  3. import re


  4. headers = {
  5.     'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64; Trident/7.0; rv:11.0) like Gecko'
  6. }   

  7. url = 'https://image.baidu.com/search/acjson?tn=resultjson_com&logid=10175432787291229734&ipn=rj&ct=201326592&is=&fp=result&queryWord=%E4%BA%8C%E6%AC%A1%E5%85%83%E5%9B%BE%E7%89%87&cl=2&lm=-1&ie=utf-8&oe=utf-8&adpicid=&st=&z=&ic=&hd=&latest=&copyright=&word=%E4%BA%8C%E6%AC%A1%E5%85%83%E5%9B%BE%E7%89%87&s=&se=&tab=&width=&height=&face=&istype=&qc=&nc=&fr=&expermode=&force=&pn=30'

  8. response = requests.get(url=url,headers=headers)

  9. response.encoding = response.apparent_encoding

  10. html = response.text

  11. regular = re.compile('"middleURL":"(.*?)"')
  12. m = regular.findall(html)
  13. for each in m:
  14.     print(each)
复制代码

这个程序应该是拿到前30张图片的地址,有兴趣继续发挥的小伙伴可以看看设成最佳答案的大佬的思路和讲解
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2025-4-26 16:27

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表