鱼C论坛

 找回密码
 立即注册
查看: 1225|回复: 3

[已解决]急急急急急!!!!!

[复制链接]
发表于 2023-9-9 17:21:57 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x

有没有像jandan.net(小甲鱼课上的 )的网站可以爬取图片?
最佳答案
2023-9-9 17:22:20
对于爬取图片的网站,可以使用Python中的第三方库进行实现。以下是一个简单的示例代码,演示如何使用requests库和beautifulsoup4库来爬取jandan.net网站上的图片链接并下载图片:

  1. import requests
  2. from bs4 import BeautifulSoup
  3. import os

  4. # 创建保存图片的文件夹
  5. save_dir = 'jandan_pics'
  6. if not os.path.exists(save_dir):
  7.     os.makedirs(save_dir)

  8. # 发起请求获取网页内容
  9. url = 'https://jandan.net'
  10. response = requests.get(url)
  11. soup = BeautifulSoup(response.text, 'html.parser')

  12. # 查找所有图片标签<img>并提取图片链接
  13. img_tags = soup.find_all('img')
  14. for img in img_tags:
  15.     img_url = img['src']
  16.     img_name = img_url.split('/')[-1]  # 提取图片名
  17.     img_path = os.path.join(save_dir, img_name)

  18.     # 下载图片
  19.     img_data = requests.get(img_url).content
  20.     with open(img_path, 'wb') as f:
  21.         f.write(img_data)
  22.         print(f"已下载图片:{img_path}")
复制代码


请注意,爬取网站上的图片涉及到法律和道德问题。在进行任何爬取操作之前,请确保遵守相关网站的使用条款和法律法规,并且获得合法授权。此示例仅供学习和参考目的,请勿用于非法用途。

此外,建议在进行爬取操作时,尊重网站的服务器负载和使用频率限制,避免对目标网站造成过多的请求负担。
如果问题已经解决,请设置最佳答案
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2023-9-9 17:22:07 | 显示全部楼层
请注意,爬取网站上的图片可能会侵犯版权,且不应该进行非法行为。本回答仅供学术研究之用。

回答您的问题,有很多工具可以用来爬取网站上的图片,其中一个常用的是Python的BeautifulSoup库。以下是一个简单的示例代码,可以用来爬取jandan.net上的图片链接:

  1. import requests
  2. from bs4 import BeautifulSoup

  3. url = 'http://jandan.net'
  4. response = requests.get(url)
  5. soup = BeautifulSoup(response.text, 'html.parser')

  6. for img in soup.find_all('img'):
  7.     print(img.get('src'))
复制代码


这段代码首先使用requests库获取网页内容,然后使用BeautifulSoup库解析HTML代码。接着,使用find_all方法查找所有的img标签,并打印出它们的src属性,即图片链接。

需要注意的是,爬取网站上的图片需要遵守网站的robots协议,不要对网站造成过多的访问压力,以免被封禁IP。
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2023-9-9 17:22:20 | 显示全部楼层    本楼为最佳答案   
对于爬取图片的网站,可以使用Python中的第三方库进行实现。以下是一个简单的示例代码,演示如何使用requests库和beautifulsoup4库来爬取jandan.net网站上的图片链接并下载图片:

  1. import requests
  2. from bs4 import BeautifulSoup
  3. import os

  4. # 创建保存图片的文件夹
  5. save_dir = 'jandan_pics'
  6. if not os.path.exists(save_dir):
  7.     os.makedirs(save_dir)

  8. # 发起请求获取网页内容
  9. url = 'https://jandan.net'
  10. response = requests.get(url)
  11. soup = BeautifulSoup(response.text, 'html.parser')

  12. # 查找所有图片标签<img>并提取图片链接
  13. img_tags = soup.find_all('img')
  14. for img in img_tags:
  15.     img_url = img['src']
  16.     img_name = img_url.split('/')[-1]  # 提取图片名
  17.     img_path = os.path.join(save_dir, img_name)

  18.     # 下载图片
  19.     img_data = requests.get(img_url).content
  20.     with open(img_path, 'wb') as f:
  21.         f.write(img_data)
  22.         print(f"已下载图片:{img_path}")
复制代码


请注意,爬取网站上的图片涉及到法律和道德问题。在进行任何爬取操作之前,请确保遵守相关网站的使用条款和法律法规,并且获得合法授权。此示例仅供学习和参考目的,请勿用于非法用途。

此外,建议在进行爬取操作时,尊重网站的服务器负载和使用频率限制,避免对目标网站造成过多的请求负担。
如果问题已经解决,请设置最佳答案
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2023-9-9 18:21:48 | 显示全部楼层
jandan.net 变过了,以前的代码行不通了
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2024-5-20 08:45

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表