鱼C论坛

 找回密码
 立即注册
查看: 2716|回复: 8

[已解决]python爬虫煎蛋网的部分问题

[复制链接]
发表于 2020-3-12 12:22:34 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
根据教程,现在煎蛋网改成随手拍,内容基本一样;
但是网址不一样了,现在网址是哪一页都是一样的,这是为什么?
<a href="//jandan.net/ooxx/MjAyMDAzMTItMjIx#comments">
                    221                </a>
只有后边那个221,进行改变但是搜索http时候,都是一样的,这是什么原因?是不是有办法把他转化为http://格式?
最佳答案
2020-3-12 12:52:01
  1. import urllib.request as r
  2. import os
  3. import re

  4. class Download_mm:
  5.     def __init__(self, pages=10):
  6.         self.url = 'http://jandan.net/ooxx/'
  7.         self.headers = {
  8.             'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) '
  9.                           'AppleWebKit/537.36 (KHTML, like Gecko) '
  10.                           'Chrome/80.0.3987.122 Safari/537.36'
  11.         }
  12.         self.page = pages
  13.         self.img_addrs = []

  14.     def url_open(self, url):
  15.         req = r.Request(url=self.url, headers=self.headers)
  16.         res = r.urlopen(req)
  17.         html = res.read()
  18.         return html

  19.     def get_next_page_url(self):
  20.         html = self.url_open(self.url).decode('utf-8')
  21.         p = re.compile('<a title="Older Comments" href="(.*?)"')
  22.         # 此时地址缺少'http:',需要加上
  23.         self.url = 'http:' + str(re.findall(p, html)[0])

  24.     def find_image(self):
  25.         html = self.url_open(self.url).decode('utf-8')
  26.         p = re.compile('<img src="(.*?)"')
  27.         self.img_addrs = re.findall(p, html)
  28.         # 此时地址缺少'http:',需要加上
  29.         for i in range(len(self.img_addrs)):
  30.             self.img_addrs[i] = 'http:' + self.img_addrs[i]
  31.         return self.img_addrs

  32.     def save_image(self, folder, img_addrs):
  33.         for each in img_addrs:
  34.             filename = each.split('/')[-1]
  35.             with open(filename, 'wb') as f:
  36.                 img = self.url_open(each)
  37.                 f.write(img)

  38.     def download(self, folder='OOXX', pages=10):
  39.         os.mkdir(folder)
  40.         os.chdir(folder)
  41.         pages = int(input('请输入想要保存的页数:'))
  42.         # while循环计算次数,根据pages
  43.         # 先获取网页
  44.         # 再寻找该页面所有图片地址
  45.         # 保存图片
  46.         # 下一页
  47.         while pages:
  48.             self.find_image()  # 此时图片地址存入了self.img_addrs
  49.             self.save_image(folder, self.img_addrs)
  50.             self.get_next_page_url()
  51.             pages -= 1


  52. if __name__ == '__main__':
  53.     down = Download_mm()
  54.     down.download()
复制代码


我用的时候有些图片下载之后打不开
现在试不了,因为服务器拒绝我访问了。。。所以有什么问题你自己看着改吧
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

发表于 2020-3-12 12:31:45 | 显示全部楼层
我也是最近才学到这里,确实和视频里的不一样,所以我就通过查找网页上下一页的链接来获得网址
这是我的实现代码,我也想知道有没有更好的方法
  1.     def get_next_page_url(self):
  2.         html = self.url_open(self.url).decode('utf-8')
  3.         p = re.compile('<a title="Older Comments" href="(.*?)"')
  4.         # 此时地址缺少'http:',需要加上
  5.         self.url = 'http:' + str(re.findall(p, html)[0])
复制代码
微信图片_20200312122857.png
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2020-3-12 12:40:38 | 显示全部楼层
March2615 发表于 2020-3-12 12:31
我也是最近才学到这里,确实和视频里的不一样,所以我就通过查找网页上下一页的链接来获得网址
这是我的实 ...

能不能把你找的这篇文章的连接给我看看,看见self,感觉像是前边定义了一个类,并且还有正则表达式
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-3-12 12:52:01 | 显示全部楼层    本楼为最佳答案   
  1. import urllib.request as r
  2. import os
  3. import re

  4. class Download_mm:
  5.     def __init__(self, pages=10):
  6.         self.url = 'http://jandan.net/ooxx/'
  7.         self.headers = {
  8.             'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) '
  9.                           'AppleWebKit/537.36 (KHTML, like Gecko) '
  10.                           'Chrome/80.0.3987.122 Safari/537.36'
  11.         }
  12.         self.page = pages
  13.         self.img_addrs = []

  14.     def url_open(self, url):
  15.         req = r.Request(url=self.url, headers=self.headers)
  16.         res = r.urlopen(req)
  17.         html = res.read()
  18.         return html

  19.     def get_next_page_url(self):
  20.         html = self.url_open(self.url).decode('utf-8')
  21.         p = re.compile('<a title="Older Comments" href="(.*?)"')
  22.         # 此时地址缺少'http:',需要加上
  23.         self.url = 'http:' + str(re.findall(p, html)[0])

  24.     def find_image(self):
  25.         html = self.url_open(self.url).decode('utf-8')
  26.         p = re.compile('<img src="(.*?)"')
  27.         self.img_addrs = re.findall(p, html)
  28.         # 此时地址缺少'http:',需要加上
  29.         for i in range(len(self.img_addrs)):
  30.             self.img_addrs[i] = 'http:' + self.img_addrs[i]
  31.         return self.img_addrs

  32.     def save_image(self, folder, img_addrs):
  33.         for each in img_addrs:
  34.             filename = each.split('/')[-1]
  35.             with open(filename, 'wb') as f:
  36.                 img = self.url_open(each)
  37.                 f.write(img)

  38.     def download(self, folder='OOXX', pages=10):
  39.         os.mkdir(folder)
  40.         os.chdir(folder)
  41.         pages = int(input('请输入想要保存的页数:'))
  42.         # while循环计算次数,根据pages
  43.         # 先获取网页
  44.         # 再寻找该页面所有图片地址
  45.         # 保存图片
  46.         # 下一页
  47.         while pages:
  48.             self.find_image()  # 此时图片地址存入了self.img_addrs
  49.             self.save_image(folder, self.img_addrs)
  50.             self.get_next_page_url()
  51.             pages -= 1


  52. if __name__ == '__main__':
  53.     down = Download_mm()
  54.     down.download()
复制代码


我用的时候有些图片下载之后打不开
现在试不了,因为服务器拒绝我访问了。。。所以有什么问题你自己看着改吧
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2020-3-12 14:13:45 | 显示全部楼层
March2615 发表于 2020-3-12 12:52
我用的时候有些图片下载之后打不开
现在试不了,因为服务器拒绝我访问了。。。所以有什么问题你自己看 ...

ok tks
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2020-3-12 14:15:10 | 显示全部楼层
March2615 发表于 2020-3-12 12:52
我用的时候有些图片下载之后打不开
现在试不了,因为服务器拒绝我访问了。。。所以有什么问题你自己看 ...

因为有的图片的网址取消了或者没有了,最好是用try检查错误来返回,这样就不会出现服务器拒绝的情况了
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2020-3-12 14:40:49 | 显示全部楼层
March2615 发表于 2020-3-12 12:52
我用的时候有些图片下载之后打不开
现在试不了,因为服务器拒绝我访问了。。。所以有什么问题你自己看 ...

有个网址叫https://www.mzitu.com/,这个的格式和教程上一样,可以试着试试,你这个代码我感觉有问题,我先用妹子网照教程来,当到re我再回来一起研究你这个代码。
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-3-12 14:55:31 | 显示全部楼层
Chysial 发表于 2020-3-12 14:40
有个网址叫https://www.mzitu.com/,这个的格式和教程上一样,可以试着试试,你这个代码我感觉有问题,我 ...

我写了mzitu的,你可以去试试,我是爬不下来,据群里大佬说是有反爬
我感觉我这个代码肯定有问题,但是上次服务器拒绝访问之后我以为被封IP了,所有再没有试过
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2020-3-12 18:05:11 | 显示全部楼层
March2615 发表于 2020-3-12 14:55
我写了mzitu的,你可以去试试,我是爬不下来,据群里大佬说是有反爬
我感觉我这个代码肯定有问题,但是 ...

是的,爬出去的全是防止倒图的
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2025-5-14 05:48

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表