鱼C论坛

 找回密码
 立即注册
查看: 1741|回复: 7

[已解决]爬虫解答

[复制链接]
发表于 2020-12-17 09:10:06 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
本帖最后由 小伤口 于 2020-12-18 11:08 编辑

甲鱼老师56讲的爬妹子图,因为之前那个不行了
俺就找的这个网站https://www.mzitu.com/


这是我的代码
import urllib.request
import os

def url_open(url):
    req=urllib.request.Request(url)
    req.add_header('User-Agent','Mozilla/5.0 (Linux; Android 6.0; Nexus 5 Build/MRA58N) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.88 Mobile Safari/537.36 Edg/87.0.664.60')
    req.add_header('Referer',url)
    response=urllib.request.urlopen(req)
    html=response.read()
    return html
def get_page(url):
    html=url_open(url).decode('utf-8')
    a=html.find('page-numbers current') + 22
    b=html.find('<', a)
    print(html[a:b])
    return html[a:b]
   

    
def find_imgs(url):
    html=url_open(url).decode('utf-8')
    img_addrs=[]
    a=html.find('data-original')
    while a!=-1:
        b=html.find('.jpg',a,a+255)
        if b!=1:
            img_addrs.append(html[a+15:b+4])
        else:
            b=a+15
        a=html.find('data-original=',b)
        return img_addrs

def save_imgs(folder,img_addrs):
    for each in img_adds:
        filename=each.split('/')[-1]
        with open(filename,'wb')as f:
            img=url_open(each)
            f.write(img)
            time.sleep(5)


def download_mm(folder='ooxx',pages=10):
    os.mkdir(folder)
    os.chdir(folder)
    url='https://www.mzitu.com/'
    page_num=int(get_page(url))
    for i in range(pages):
        page_num-=i
        page_url=url+'page/'+str(page_num)+'/'
        img_addrs=find_imgs(page_url)
        save_img(folder,img_addrs)
if __name__=='__main__':
     
     
     download_mm()
报错内容
==
>

Traceback (most recent call last):
  File "C:\Users\ASUS\Desktop\爬虫爬图.py", line 55, in <module>
    download_mm()
  File "C:\Users\ASUS\Desktop\爬虫爬图.py", line 46, in download_mm
    page_num=int(get_page(url))
ValueError: invalid literal for int() with base 10: '>\n'
>>> 
出错的原因就是因为下面代码识别页数只会打印这个>
def get_page(url):
    html=url_open(url).decode('utf-8')
    a=html.find('page-numbers current') + 22
    b=html.find('<', a)
    print(html[a:b])
    return html[a:b]


我比对了无数次感觉没有错呀
修改也修改不对
哪位大佬能纠纠错吗

孩子快急哭了
我又筛查了一下原因出在User-Agent
俺用我自己的User-Agent就会返回<
用别人的就会返回1(正常)
为什么这个网站对我的User-Agent
这么偏心,大佬能否解答一下吗 (其实昨天晚上就发了,只是现在才过审核)
最佳答案
2020-12-18 16:32:28
这个页码是js加载的,你print打印源码就能发现里面根本不存在页码,只有下一页。如果你只是想翻页,哪里用得着那么麻烦去页面里获取。直接用for循环拼出来不就行了?
for i in range(1, 10):
    url = f'https://www.mzitu.com/page/{i}/'
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2020-12-18 16:32:28 | 显示全部楼层    本楼为最佳答案   
这个页码是js加载的,你print打印源码就能发现里面根本不存在页码,只有下一页。如果你只是想翻页,哪里用得着那么麻烦去页面里获取。直接用for循环拼出来不就行了?
for i in range(1, 10):
    url = f'https://www.mzitu.com/page/{i}/'

评分

参与人数 1荣誉 +1 鱼币 +1 收起 理由
小伤口 + 1 + 1 鱼C有你更精彩^_^

查看全部评分

想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2020-12-18 16:43:02 | 显示全部楼层
YunGuo 发表于 2020-12-18 16:32
这个页码是js加载的,你print打印源码就能发现里面根本不存在页码,只有下一页。如果你只是想翻页,哪里用 ...

如此有道理
for循环不香吗
谢谢大佬
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-12-18 16:49:07 | 显示全部楼层
小伤口 发表于 2020-12-18 16:43
如此有道理
for循环不香吗
谢谢大佬

哈哈哈,可能你一时也没想到吧,其实我刚刚用requests模块请求试了一下,源码中是有页码的。至于用urllib为什么没有,那就不清楚了,我对urllib不熟。
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2020-12-18 16:54:49 | 显示全部楼层
YunGuo 发表于 2020-12-18 16:49
哈哈哈,可能你一时也没想到吧,其实我刚刚用requests模块请求试了一下,源码中是有页码的。至于用urllib ...

哦哦,好像现在大家都在用requests了俺也去瞧瞧,谢谢了
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-12-18 17:17:29 | 显示全部楼层
楼主你报错的原因在
a=html.find('page-numbers current') + 22
这一句,
因为找不到'page-numbers current',所以返回的html.find('page-numbers current') 为-1
html里面是没有页码的,但是网页源码里面是有的。

评分

参与人数 1荣誉 +1 鱼币 +1 收起 理由
小伤口 + 1 + 1 鱼C有你更精彩^_^

查看全部评分

想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2020-12-18 17:38:10 | 显示全部楼层
qq1151985918 发表于 2020-12-18 17:17
楼主你报错的原因在这一句,
因为找不到'page-numbers current',所以返回的html.find('page-numbers curr ...

俺是去找页码数所以用
def get_page(url):
    html=url_open(url).decode('utf-8')
    a=html.find('page-numbers current') + 22
    b=html.find('<', a)
    print(html[a:b])
    return html[a:b]
俺用我自己的User-Agent就会返回’<‘这个符号
别人的就可以返回正常页码数
所以俺好像有点不懂了
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2020-12-18 17:40:32 | 显示全部楼层
YunGuo 发表于 2020-12-18 16:49
哈哈哈,可能你一时也没想到吧,其实我刚刚用requests模块请求试了一下,源码中是有页码的。至于用urllib ...

俺也去瞧瞧requests谢谢了
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2025-1-17 01:17

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表