鱼C论坛

 找回密码
 立即注册
查看: 1824|回复: 1

爬图mmjpg无法保存图片

[复制链接]
发表于 2018-5-18 22:00:42 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
直接上代码
  1. import urllib.request
  2. import urllib.parse
  3. import json
  4. import os

  5. def url_open(url):
  6.     req = urllib.request.Request(url)
  7.     req.add_header('User-Agent','Mozilla/5.0 (Linux; Android 6.0; Nexus 5 Build/MRA58N) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/66.0.3359.181 Mobile Safari/537.36')
  8.     response = urllib.request.urlopen(url)
  9.     html = response.read()
  10.     return html
  11.    
  12. def get_page(url):
  13.     html = url_open(url).decode('utf-8')
  14.     a = html.find('href="/home/')+12
  15.     b = html.find('"',a)
  16.     return html[a:b]

  17. def find_urls(url):
  18.     html = url_open(url).decode('utf-8')
  19.     url_addrs = []

  20.     a = html.find('http://img.mmjpg.com/small/2018/')
  21.     while a != -1:
  22.         b = html.find('.jpg',a,a+255)
  23.         if b != -1:
  24.             if b-a == 36:#返回套图第一页位置
  25.                 url_addrs.append('http://www.mmjpg.com/mm/'+str(html[a+32:b]))
  26.         else:
  27.             b = a + 32
  28.         a = html.find('http://img.mmjpg.com/small/2018/',b)
  29.     for each in url_addrs:
  30.         print (each)
  31.         html = url_open(each).decode('utf-8')
  32.         img_addrs = []
  33.         i=1
  34.         page6 = html.find('/6')
  35.         page = html.find('href="/mm/',page6+4)
  36.         strpages = str(html[page+15:page+17])
  37.         print(page)
  38.         print (strpages)
  39.         pages = int(html[page+15:page+17])
  40.         #返回套图总页数
  41.         print (pages)
  42.         while i != pages:
  43.             i=i+1
  44.             html = url_open(each + '/' + str(i)).decode('utf-8')
  45.             a = html.find('img src=')
  46.             b = html.find('.jpg',a,a+255)
  47.             if b != -1:
  48.                 img_addrs.append(html[a+9:b+4])
  49.             else:
  50.                 b = a + 9
  51.             a = html.find('img src=',b)
  52.         for each2 in img_addrs:
  53.             print(each2)
  54.             filename = each2.split('/')[-1]
  55.             with open(filename,'wb') as f:
  56.                 img = url_open(each)
  57.                 f.write(img)
  58.    


  59. def download_mm(folder='ooxx',pages=1):
  60.     os.chdir(folder)

  61.     url = "http://www.mmjpg.com/"
  62.     page_num = int(get_page(url))
  63.     for i in range(pages):
  64.         page_num += 1
  65.         page_url = url + 'home/' + str(page_num)
  66.         url_addrs = find_urls(page_url)


  67. if __name__ == "__main__":
  68.     download_mm()
复制代码


代码有点乱,图片地址都能获取到,但是保存下来都是同一张无关的图片。
返回结果:
http://img.mmjpg.com/2018/1323/2iqw.jpg
http://img.mmjpg.com/2018/1323/3ikb.jpg
http://img.mmjpg.com/2018/1323/4iak.jpg
http://img.mmjpg.com/2018/1323/5ijf.jpg
http://img.mmjpg.com/2018/1323/6i0f.jpg
http://img.mmjpg.com/2018/1323/7i3u.jpg
http://img.mmjpg.com/2018/1323/8iqc.jpg
http://img.mmjpg.com/2018/1323/9i9y.jpg
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

 楼主| 发表于 2018-5-18 22:46:20 | 显示全部楼层
59行                 img = url_open(each)
改为                img = url_open(each2)
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2025-12-30 07:40

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表