鱼C论坛

 找回密码
 立即注册
查看: 1889|回复: 5

关于爬取妹子图链接求助

[复制链接]
发表于 2018-4-6 22:50:37 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
本帖最后由 wongyusing 于 2018-10-14 19:08 编辑

代码如下:
  1. # -*- coding: utf-8 -*-
  2. import scrapy
  3. import re
  4. from scrapy.http import Request
  5. import os
  6. from mm131.items import Mm131Item


  7. class MeiziSpider(scrapy.Spider):
  8.     name = 'meizi'
  9.     #allowed_domains = ['http://www.mm131.com/']
  10.     start_urls = ['http://www.mm131.com/xinggan/']
  11.     base = r'/home/wongyusing/桌面/gril/mm131/mm131/download/'
  12.     #如果需要测试,请修改自己电脑的路径

  13.     def parse(self, response):
  14.         items = []                  #/html/body/div[5]/dl/dd
  15.         mains = response.xpath('/html/body/div/dl//a[@target="_blank"]')
  16.         sort_name = response.xpath('/html/body/div/dl/dt/a[2]/text()').extract()[0]
  17.         #print(sort_name)#获取分类名,例子‘性感美女’
  18.         for main in mains:
  19.             item = Mm131Item()
  20.             item['title'] = main.xpath('./text()').extract()[0]#获取妹子标题
  21.             item['girl_url'] = main.xpath('./@href').extract()[0]#获取妹子入口图片
  22.             item['file_name'] = self.base + sort_name + '/' + item['title']#拼接绝对路径
  23.             items.append(item)
  24.         for item in items:#创建文件夹
  25.             fileName=item['file_name']
  26.             if not os.path.exists(fileName):
  27.                 os.makedirs(fileName)
  28.             # #用meta传入下一层
  29.             yield Request(url=item['girl_url'],meta={'item1':item},callback=self.parse_one)


  30.     def parse_one(self,response):
  31.         item2 = response.meta['item1']
  32.         item = Mm131Item()
  33.         img_all_ = response.xpath('/html/body/div/div/span[1]/text()').extract()[0]
  34.         req = r'共(.*?)页'
  35.         max_img_page = re.findall(req,img_all_)[0]#获取妹子图集的总页数
  36.         items = []
  37.         for i in range(2,int(max_img_page)+1):
  38.             item['file_name'] = item2['file_name']
  39.             item['path'] = item['file_name'] + '/' + str(i) + '.jpg'#生成绝对路径
  40.             item['img_url'] = response.url[:-5] + '_' + str(i) + '.html'#拼接每一页的url
  41.             items.append(item)
  42.         for item in items:
  43.             yield Request(url=item['img_url'], meta={'item2': item}, callback=self.parse_two)

  44.     def parse_two(self,response):
  45.         item3 = response.meta['item2']
  46.         item = Mm131Item()
  47.         #获取图片的url,问题处在下面这条代码,返回的url会自动连到腾讯的图片
  48.         url_3 = response.xpath('/html/body/div/div[2]/a/img/@src').extract()[0]
  49.         print(url_3)
复制代码



代码网盘链接:https://pan.baidu.com/s/17AyCvpysUjxqpue04eAIUg
密码:7tjb  
代码运行,运行mainmain.py就可以运行代码了
问题:
1.这网站是不是静态啊??该如何判断类型??
2.打印出来的URL不是想要的妹子图,该如何解决??是需要加上get的参数吗???如下图的链接,无法链接到真正的图片

http://img1.mm131.me/pic/3849/40.jpg
http://img1.mm131.me/pic/3855/55.jpg
http://img1.mm131.me/pic/3853/50.jpg
http://img1.mm131.me/pic/3850/50.jpg
http://img1.mm131.me/pic/3851/45.jpg
http://img1.mm131.me/pic/3852/48.jpg
http://img1.mm131.me/pic/3857/39.jpg
http://img1.mm131.me/pic/3856/39.jpg
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

 楼主| 发表于 2018-4-7 00:18:49 | 显示全部楼层
本帖最后由 wongyusing 于 2018-4-7 00:46 编辑

链接是正确的,但是会引导到腾讯这个图标的链接

                               
登录/注册后可看大图

我之前一直都是爬取小说之类,这是第二次爬取图片,第一次遇到这种问题。
百度不到这种问题的答案,但有的教程说是要伪造http头信息。
但是我找不到,求各位大神支支招。
通过火狐浏览器的开发者工具看到状态码是302,正在想办法解决
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2018-4-7 11:47:24 | 显示全部楼层
伪造不全,仔细分析;或换网站吧
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2018-4-7 11:47:29 | 显示全部楼层
伪造不全,仔细分析;或换网站吧
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2018-4-7 15:57:38 | 显示全部楼层
ba21 发表于 2018-4-7 11:47
伪造不全,仔细分析;或换网站吧

伪造不全??是什么意思??

小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2018-7-19 12:46:44 | 显示全部楼层
http://bbs.fishc.org/thread-108410-1-1.html
爬取妹子图片的问题,和你情况一模一样,你最后是如何解决的,麻烦告知一声,谢谢
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2026-3-10 07:06

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表