鱼C论坛

 找回密码
 立即注册
查看: 2727|回复: 15

[已解决]scrapy爬取图片

[复制链接]
发表于 2020-9-26 20:19:18 | 显示全部楼层 |阅读模式
10鱼币
最经开始学习scrapy框架
虽然文字会 但是图片就不会了
大体我已经写好了
问题:
如何在self.csv_write = csv.DictWriter(self.f,fieldnames=['img_url','file_name'])左右
直接提取出img_url和file_name
而不是写入data.csv文件
(别问我为什么不直接遍历)
dimensional.zip (15.93 KB, 下载次数: 13)
最佳答案
2020-9-26 20:19:19
风尘岁月 发表于 2020-10-1 19:03
然后再丢到管道文件进行写入?
大佬

直接在main.py文件进行请求,得到图片的二进制响应,打包丢给管道,看你怎么去处理嘛。

最佳答案

查看完整内容

直接在main.py文件进行请求,得到图片的二进制响应,打包丢给管道,看你怎么去处理嘛。
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

发表于 2020-9-26 20:19:19 | 显示全部楼层    本楼为最佳答案   
风尘岁月 发表于 2020-10-1 19:03
然后再丢到管道文件进行写入?
大佬

直接在main.py文件进行请求,得到图片的二进制响应,打包丢给管道,看你怎么去处理嘛。
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

发表于 2020-9-26 20:29:37 | 显示全部楼层
原始网址发出来
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

头像被屏蔽
发表于 2020-9-28 07:00:36 | 显示全部楼层
提示: 作者被禁止或删除 内容自动屏蔽
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

发表于 2020-9-28 08:58:50 | 显示全部楼层
还在学习基础中
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

发表于 2020-9-28 16:13:11 | 显示全部楼层
利用scrapy的ImagesPipeline管道进行图片下载

一、settings文件配置:

  1. ITEM_PIPELINES = {
  2.    'dimensional.pipelines.DimensionalPipeline': 300,
  3. }
  4. # 图片url
  5. IMAGES_URLS_FIELD = 'image_urls'
  6. IMAGES_RESULT_FIELD = 'images_path'
  7. # 图片保存位置
  8. IMAGES_STORE = '../dimensional/image'
复制代码


二、pipelines文件代码:

  1. from scrapy.pipelines.images import ImagesPipeline
  2. import scrapy

  3. # 继承ImagesPipeline,实现保存图片
  4. class DimensionalPipeline(ImagesPipeline):
  5.    
  6.     # 重写get_media_requests方法
  7.     def get_media_requests(self, item, info):
  8.         for image_url in item['image_urls']:
  9.             yield scrapy.Request(image_url)

  10.     def item_completed(self, results, item, info):
  11.         # 获取图片保存路径
  12.         image_path = [x['path'] for ok, x in results if ok]
  13.         item['images_path'] = image_path
  14.         yield item
复制代码


三、items文件代码:

  1. import scrapy


  2. class DimensionalItem(scrapy.Item):

  3.     image_urls = scrapy.Field()
  4.     images_path = scrapy.Field()
复制代码



四、main文件代码

  1. import scrapy
  2. from dimensional.items import DimensionalItem

  3. class MainSpider(scrapy.Spider):
  4.     name = 'main'
  5.     allowed_domains = ['anime-pictures.net']
  6.     start_urls = ['https://anime-pictures.net/pictures/view_posts/1?lang=en']

  7.     def parse(self, response):
  8.         result_list = response.xpath('//span[@class="img_block_big"]')
  9.         url_list = []
  10.         item = DimensionalItem()
  11.         for sel in result_list:
  12.             image_url = 'https:' + sel.xpath('./a/picture/source/img/@src').extract_first()
  13.             url_list.append(image_url)
  14.         item['image_urls'] = url_list
  15.         yield item
复制代码
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

发表于 2020-9-28 21:39:34 | 显示全部楼层
本帖最后由 Stubborn 于 2020-9-28 21:41 编辑

可以用scrapy自带的图片管道哦

  1. from scrapy.pipelines.images import ImagesPipeline


  2. class MzituScrapyPipeline(ImagesPipeline):

  3.     def strip(self, s):
  4.         import re
  5.         return re.sub(r'[?\\*|"<>:/]', "", str(s))

  6.     def file_path(self, request, response=None, info=None):
  7.         item = request.meta["item"]
  8.         file = self.strip(item["name"])
  9.         img = request.url.split("/")[-1]
  10.         file_name = u"full/{0}/{1}".format(file, img)
  11.         return file_name

  12.     def get_media_requests(self, item, info):
  13.         referer = item["url"]
  14.         yield scrapy.Request(
  15.             url=item["image_urls"],
  16.             meta={"item": item, "referer": referer}
  17.         )

  18.     def item_completed(self, results, item, info):
  19.         image_paths = [x['path'] for ok, x in results if ok]
  20.         if not image_paths:
  21.             raise DropItem("Item contains no images")
  22.         return item
复制代码
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

头像被屏蔽
发表于 2020-9-29 08:13:46 | 显示全部楼层
提示: 作者被禁止或删除 内容自动屏蔽
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

 楼主| 发表于 2020-10-1 06:39:44 | 显示全部楼层
Stubborn 发表于 2020-9-28 21:39
可以用scrapy自带的图片管道哦

知道 但是问题在如何提取image_url和file_name而不用写入
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

发表于 2020-10-1 08:01:13 | 显示全部楼层
我来看看!
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

发表于 2020-10-1 18:41:20 | 显示全部楼层
本帖最后由 Stubborn 于 2020-10-1 18:44 编辑
风尘岁月 发表于 2020-10-1 06:39
知道 但是问题在如何提取image_url和file_name而不用写入


最简单的一个问题,一个图片的二进制响应,response 打包丢给管道,看你怎么去处理嘛~

你的是本地的吗?在网页响应里面提取出img_url, img_name  在继续去发请求,得到二进制响应。然后把二进制响应,和img_name 丢给管道嘛~
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

 楼主| 发表于 2020-10-1 18:48:26 | 显示全部楼层
Stubborn 发表于 2020-10-1 18:41
最简单的一个问题,一个图片的二进制响应,response 打包丢给管道,看你怎么去处理嘛~

你的是本地的 ...

这个道理懂
请问大佬 如何提取出file_name和image_url(main.py文件里面有详细的)在管道文件中
谢谢大佬!
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

发表于 2020-10-1 18:56:28 | 显示全部楼层
风尘岁月 发表于 2020-10-1 18:48
这个道理懂
请问大佬 如何提取出file_name和image_url(main.py文件里面有详细的)在管道文件中 ...
  1.     def parse(self, response):
  2.         result_list = response.xpath('//span[@class="img_block_big"]')
  3.         for sel in result_list:
  4.             image_url = sel.xpath('./a/picture/source/img/@src').extract_first()
  5.             img_url = 'https:' + image_url  # 手动拼url
  6.             id = str(randint(0, 99999999999999))
  7.             file_name = id + '.' + img_url.split('.')[-1]

  8.             item = DimensionalItem(img_url = img_url,file_name = file_name)
  9.             yield item
复制代码


你前面不是有提取了吗?还去本地提取做什么?拿着url继续去发请求呀?不会发请求吗?
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

 楼主| 发表于 2020-10-1 19:03:19 | 显示全部楼层
Stubborn 发表于 2020-10-1 18:56
你前面不是有提取了吗?还去本地提取做什么?拿着url继续去发请求呀?不会发请求吗?

你的意思是直接在main.py文件进行请求?
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

 楼主| 发表于 2020-10-1 19:03:53 | 显示全部楼层
Stubborn 发表于 2020-10-1 18:56
你前面不是有提取了吗?还去本地提取做什么?拿着url继续去发请求呀?不会发请求吗?

然后再丢到管道文件进行写入?
大佬
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

 楼主| 发表于 2020-10-1 19:07:06 | 显示全部楼层
Stubborn 发表于 2020-10-1 19:05
直接在main.py文件进行请求,得到图片的二进制响应,打包丢给管道,看你怎么去处理嘛。

Soga 谢谢大佬
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2025-6-27 20:30

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表