鱼C论坛

 找回密码
 立即注册
查看: 2166|回复: 7

[已解决]爬虫解答

[复制链接]
发表于 2020-12-17 09:10:06 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
本帖最后由 小伤口 于 2020-12-18 11:08 编辑

甲鱼老师56讲的爬妹子图,因为之前那个不行了
俺就找的这个网站https://www.mzitu.com/


这是我的代码
  1. import urllib.request
  2. import os

  3. def url_open(url):
  4.     req=urllib.request.Request(url)
  5.     req.add_header('User-Agent','Mozilla/5.0 (Linux; Android 6.0; Nexus 5 Build/MRA58N) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.88 Mobile Safari/537.36 Edg/87.0.664.60')
  6.     req.add_header('Referer',url)
  7.     response=urllib.request.urlopen(req)
  8.     html=response.read()
  9.     return html
  10. def get_page(url):
  11.     html=url_open(url).decode('utf-8')
  12.     a=html.find('page-numbers current') + 22
  13.     b=html.find('<', a)
  14.     print(html[a:b])
  15.     return html[a:b]
  16.    

  17.    
  18. def find_imgs(url):
  19.     html=url_open(url).decode('utf-8')
  20.     img_addrs=[]
  21.     a=html.find('data-original')
  22.     while a!=-1:
  23.         b=html.find('.jpg',a,a+255)
  24.         if b!=1:
  25.             img_addrs.append(html[a+15:b+4])
  26.         else:
  27.             b=a+15
  28.         a=html.find('data-original=',b)
  29.         return img_addrs

  30. def save_imgs(folder,img_addrs):
  31.     for each in img_adds:
  32.         filename=each.split('/')[-1]
  33.         with open(filename,'wb')as f:
  34.             img=url_open(each)
  35.             f.write(img)
  36.             time.sleep(5)


  37. def download_mm(folder='ooxx',pages=10):
  38.     os.mkdir(folder)
  39.     os.chdir(folder)
  40.     url='https://www.mzitu.com/'
  41.     page_num=int(get_page(url))
  42.     for i in range(pages):
  43.         page_num-=i
  44.         page_url=url+'page/'+str(page_num)+'/'
  45.         img_addrs=find_imgs(page_url)
  46.         save_img(folder,img_addrs)
  47. if __name__=='__main__':
  48.      
  49.      
  50.      download_mm()

复制代码

报错内容
  1. ==
  2. >

  3. Traceback (most recent call last):
  4.   File "C:\Users\ASUS\Desktop\爬虫爬图.py", line 55, in <module>
  5.     download_mm()
  6.   File "C:\Users\ASUS\Desktop\爬虫爬图.py", line 46, in download_mm
  7.     page_num=int(get_page(url))
  8. ValueError: invalid literal for int() with base 10: '>\n'
  9. >>>
复制代码

出错的原因就是因为下面代码识别页数只会打印这个>
  1. def get_page(url):
  2.     html=url_open(url).decode('utf-8')
  3.     a=html.find('page-numbers current') + 22
  4.     b=html.find('<', a)
  5.     print(html[a:b])
  6.     return html[a:b]
复制代码



我比对了无数次感觉没有错呀
修改也修改不对
哪位大佬能纠纠错吗

孩子快急哭了
我又筛查了一下原因出在User-Agent
俺用我自己的User-Agent就会返回<
用别人的就会返回1(正常)
为什么这个网站对我的User-Agent
这么偏心,大佬能否解答一下吗 (其实昨天晚上就发了,只是现在才过审核)
最佳答案
2020-12-18 16:32:28
这个页码是js加载的,你print打印源码就能发现里面根本不存在页码,只有下一页。如果你只是想翻页,哪里用得着那么麻烦去页面里获取。直接用for循环拼出来不就行了?
  1. for i in range(1, 10):
  2.     url = f'https://www.mzitu.com/page/{i}/'
复制代码
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

发表于 2020-12-18 16:32:28 | 显示全部楼层    本楼为最佳答案   
这个页码是js加载的,你print打印源码就能发现里面根本不存在页码,只有下一页。如果你只是想翻页,哪里用得着那么麻烦去页面里获取。直接用for循环拼出来不就行了?
  1. for i in range(1, 10):
  2.     url = f'https://www.mzitu.com/page/{i}/'
复制代码

评分

参与人数 1荣誉 +1 鱼币 +1 收起 理由
小伤口 + 1 + 1 鱼C有你更精彩^_^

查看全部评分

小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2020-12-18 16:43:02 | 显示全部楼层
YunGuo 发表于 2020-12-18 16:32
这个页码是js加载的,你print打印源码就能发现里面根本不存在页码,只有下一页。如果你只是想翻页,哪里用 ...

如此有道理
for循环不香吗
谢谢大佬
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-12-18 16:49:07 | 显示全部楼层
小伤口 发表于 2020-12-18 16:43
如此有道理
for循环不香吗
谢谢大佬

哈哈哈,可能你一时也没想到吧,其实我刚刚用requests模块请求试了一下,源码中是有页码的。至于用urllib为什么没有,那就不清楚了,我对urllib不熟。
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2020-12-18 16:54:49 | 显示全部楼层
YunGuo 发表于 2020-12-18 16:49
哈哈哈,可能你一时也没想到吧,其实我刚刚用requests模块请求试了一下,源码中是有页码的。至于用urllib ...

哦哦,好像现在大家都在用requests了俺也去瞧瞧,谢谢了
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-12-18 17:17:29 | 显示全部楼层
楼主你报错的原因在
  1. a=html.find('page-numbers current') + 22
复制代码
这一句,
因为找不到'page-numbers current',所以返回的html.find('page-numbers current') 为-1
html里面是没有页码的,但是网页源码里面是有的。

评分

参与人数 1荣誉 +1 鱼币 +1 收起 理由
小伤口 + 1 + 1 鱼C有你更精彩^_^

查看全部评分

小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2020-12-18 17:38:10 | 显示全部楼层
qq1151985918 发表于 2020-12-18 17:17
楼主你报错的原因在这一句,
因为找不到'page-numbers current',所以返回的html.find('page-numbers curr ...

俺是去找页码数所以用
  1. def get_page(url):
  2.     html=url_open(url).decode('utf-8')
  3.     a=html.find('page-numbers current') + 22
  4.     b=html.find('<', a)
  5.     print(html[a:b])
  6.     return html[a:b]
复制代码

俺用我自己的User-Agent就会返回’<‘这个符号
别人的就可以返回正常页码数
所以俺好像有点不懂了
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2020-12-18 17:40:32 | 显示全部楼层
YunGuo 发表于 2020-12-18 16:49
哈哈哈,可能你一时也没想到吧,其实我刚刚用requests模块请求试了一下,源码中是有页码的。至于用urllib ...

俺也去瞧瞧requests谢谢了
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2025-6-30 04:42

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表