鱼C论坛

 找回密码
 立即注册
查看: 2088|回复: 4

[已解决]第055讲:论一只爬虫的自我修养4:OOXX

[复制链接]
发表于 2020-8-26 14:50:28 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
  1. import urllib.request
  2. import os
  3. import base64

  4. def url_open(url):
  5.     #添加文件头
  6.     req = urllib.request.Request(url)
  7.     req.add_header('User-Agent','Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.105 Safari/537.36')
  8.     #访问页面
  9.     response = urllib.request.urlopen(req)
  10.     html = response.read()
  11.     return html
  12.    
  13. #获取页码
  14. def get_page(url):
  15.     html = url_open(url).decode('utf-8')

  16.     #查找(不懂偏移量)
  17.     a = html.find('current-comment-page') + 23
  18.     b = html.find(']', a)

  19.     return html[a:b]

  20. #获取页码图片地址
  21. def find_imgs(url):
  22.     html = url_open(url).decode('utf-8')
  23.     img_addrs = []
  24.     #查找(不懂偏移量)
  25.     a = html.find('img src=')
  26.     #找不到a的话,返回-1
  27.     while a != -1:
  28.         b = html.find('.jpg', a, a+255)
  29.         #找不到b的话,返回-1
  30.         if b != -1:
  31.             img_addrs.append('http:' + html[a+9:b+4])
  32.         else:
  33.             #回到//原位置查找
  34.             b = a + 9
  35.         a = html.find('img src=', b)

  36.     return img_addrs
  37.         
  38.    
  39. #保存图片
  40. def save_imgs(folder, img_addrs):
  41.     for each in img_addrs:
  42.         #分割split,以最后一个/
  43.         filename = each.split('/')[-1]
  44.         with open(filename, 'wb') as f:
  45.             #打开图片,二进制码
  46.             img = url_open(each)
  47.             #写入
  48.             f.write(img)

  49. def download_mm(folder='ooxx', pages=20):
  50.     #创建文件夹
  51.     os.mkdir(folder)
  52.     #保存文件夹
  53.     os.chdir(folder)

  54.     url = 'http://jandan.net/ooxx/'
  55.     #获取页码
  56.     page_num = int(get_page(url))

  57.     for i in range(pages):
  58.         page_num -= i
  59.         #进行base64加密
  60.         num = '20200826-'
  61.         bytes_num = num.encode('utf-8')
  62.         str_num = base64.b64encode(bytes_num).decode('utf-8')
  63.         #获取当前页面地址
  64.         page_url = url + str_num + str(page_num) + '#comments'
  65.         #获取页面内图片地址
  66.         img_addrs = find_imgs(page_url)
  67.         #保存页面到指定的文件夹
  68.         save_imgs(folder, img_addrs)

  69. #调用主函数
  70. if __name__ == '__main__':
  71.     download_mm()
复制代码


谁能帮我看下,为啥只能爬一页,明明pages=10,一页爬完报错了,求解
还有那个偏移量是怎么算的呢,爬的是煎蛋网http://jandan.net/ooxx,求解
最佳答案
2020-8-26 15:47:46
我一般用xpath(供参考):

  1. import requests
  2. from lxml import etree
  3. import os


  4. def main():
  5.     dir_name = 'pics'
  6.     if not os.path.exists(dir_name):
  7.         os.mkdir(dir_name)
  8.     os.chdir(dir_name)
  9.     # num = int(input('请输入想下载的页数:'))
  10.     num = 3
  11.     url = 'http://jandan.net/ooxx'
  12.     headers = {'user-agent': 'firefox'}
  13.     result = []
  14.     r = requests.get(url, headers=headers)
  15.     html = etree.HTML(r.text)
  16.     nx_page = html.xpath('//a[@class="previous-comment-page"]/@href')[0]
  17.     for item in range(num):
  18.         r = requests.get('http:' + nx_page, headers=headers)
  19.         html = etree.HTML(r.text)
  20.         result.extend(html.xpath('//img[@referrerpolicy="no-referrer"]/@src'))
  21.         nx_page = html.xpath('//a[@class="previous-comment-page"]/@href')[0]
  22.     pic_num = len(result)
  23.     print(f'总共{pic_num}张图片')
  24.     dl_counter = 1
  25.     for item in result:
  26.         pic_name = item.split('/')[-1]
  27.         try:
  28.             r = requests.get('http:' + item, headers=headers, timeout=5)
  29.         except Exception as e:
  30.             print(e)
  31.         with open(pic_name, 'wb') as f:
  32.             f.write(r.content)
  33.             print(f'已下载{pic_name}, 共下载{dl_counter}。')
  34.             dl_counter += 1


  35. if __name__ == '__main__':
  36.     main()
复制代码
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

发表于 2020-8-26 15:47:46 | 显示全部楼层    本楼为最佳答案   
我一般用xpath(供参考):

  1. import requests
  2. from lxml import etree
  3. import os


  4. def main():
  5.     dir_name = 'pics'
  6.     if not os.path.exists(dir_name):
  7.         os.mkdir(dir_name)
  8.     os.chdir(dir_name)
  9.     # num = int(input('请输入想下载的页数:'))
  10.     num = 3
  11.     url = 'http://jandan.net/ooxx'
  12.     headers = {'user-agent': 'firefox'}
  13.     result = []
  14.     r = requests.get(url, headers=headers)
  15.     html = etree.HTML(r.text)
  16.     nx_page = html.xpath('//a[@class="previous-comment-page"]/@href')[0]
  17.     for item in range(num):
  18.         r = requests.get('http:' + nx_page, headers=headers)
  19.         html = etree.HTML(r.text)
  20.         result.extend(html.xpath('//img[@referrerpolicy="no-referrer"]/@src'))
  21.         nx_page = html.xpath('//a[@class="previous-comment-page"]/@href')[0]
  22.     pic_num = len(result)
  23.     print(f'总共{pic_num}张图片')
  24.     dl_counter = 1
  25.     for item in result:
  26.         pic_name = item.split('/')[-1]
  27.         try:
  28.             r = requests.get('http:' + item, headers=headers, timeout=5)
  29.         except Exception as e:
  30.             print(e)
  31.         with open(pic_name, 'wb') as f:
  32.             f.write(r.content)
  33.             print(f'已下载{pic_name}, 共下载{dl_counter}。')
  34.             dl_counter += 1


  35. if __name__ == '__main__':
  36.     main()
复制代码
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-9-14 17:21:56 | 显示全部楼层
数据采集多了还需要用代理IP吧
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-10-22 11:29:01 | 显示全部楼层
学习了 up up
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-12-13 20:38:58 | 显示全部楼层
[code]
        num = '20201213-'      

#### 加密要加页码一起加  ‘20201213-’+str(page_num))

        bytes_num = (num+str(page_num)).encode('utf-8')
        str_num = base64.b64encode(bytes_num).decode('utf-8')

####
#         print(base64.b64decode(str_num))
        page_url = url+str_num+'#comments'


楼主,今天看了你的代码收获很多,我试了一下你的代码应该是加密位置, 几行错了,
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2025-6-30 13:00

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表