|
马上注册,结交更多好友,享用更多功能^_^
您需要 登录 才可以下载或查看,没有账号?立即注册
x
本帖最后由 小伤口 于 2020-12-18 11:08 编辑
甲鱼老师56讲的爬妹子图,因为之前那个不行了
俺就找的这个网站https://www.mzitu.com/
这是我的代码
- import urllib.request
- import os
- def url_open(url):
- req=urllib.request.Request(url)
- req.add_header('User-Agent','Mozilla/5.0 (Linux; Android 6.0; Nexus 5 Build/MRA58N) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.88 Mobile Safari/537.36 Edg/87.0.664.60')
- req.add_header('Referer',url)
- response=urllib.request.urlopen(req)
- html=response.read()
- return html
- def get_page(url):
- html=url_open(url).decode('utf-8')
- a=html.find('page-numbers current') + 22
- b=html.find('<', a)
- print(html[a:b])
- return html[a:b]
-
-
- def find_imgs(url):
- html=url_open(url).decode('utf-8')
- img_addrs=[]
- a=html.find('data-original')
- while a!=-1:
- b=html.find('.jpg',a,a+255)
- if b!=1:
- img_addrs.append(html[a+15:b+4])
- else:
- b=a+15
- a=html.find('data-original=',b)
- return img_addrs
- def save_imgs(folder,img_addrs):
- for each in img_adds:
- filename=each.split('/')[-1]
- with open(filename,'wb')as f:
- img=url_open(each)
- f.write(img)
- time.sleep(5)
- def download_mm(folder='ooxx',pages=10):
- os.mkdir(folder)
- os.chdir(folder)
- url='https://www.mzitu.com/'
- page_num=int(get_page(url))
- for i in range(pages):
- page_num-=i
- page_url=url+'page/'+str(page_num)+'/'
- img_addrs=find_imgs(page_url)
- save_img(folder,img_addrs)
- if __name__=='__main__':
-
-
- download_mm()
复制代码
报错内容
- ==
- >
- Traceback (most recent call last):
- File "C:\Users\ASUS\Desktop\爬虫爬图.py", line 55, in <module>
- download_mm()
- File "C:\Users\ASUS\Desktop\爬虫爬图.py", line 46, in download_mm
- page_num=int(get_page(url))
- ValueError: invalid literal for int() with base 10: '>\n'
- >>>
复制代码
出错的原因就是因为下面代码识别页数只会打印这个>
- def get_page(url):
- html=url_open(url).decode('utf-8')
- a=html.find('page-numbers current') + 22
- b=html.find('<', a)
- print(html[a:b])
- return html[a:b]
复制代码
我比对了无数次感觉没有错呀
修改也修改不对
哪位大佬能纠纠错吗
孩子快急哭了
我又筛查了一下原因出在User-Agent
俺用我自己的User-Agent就会返回<
用别人的就会返回1(正常)
为什么这个网站对我的User-Agent
这么偏心,大佬能否解答一下吗 (其实昨天晚上就发了,只是现在才过审核)
这个页码是js加载的,你print打印源码就能发现里面根本不存在页码,只有下一页。如果你只是想翻页,哪里用得着那么麻烦去页面里获取。直接用for循环拼出来不就行了?
- for i in range(1, 10):
- url = f'https://www.mzitu.com/page/{i}/'
复制代码
|
|