鱼C论坛

 找回密码
 立即注册
查看: 1544|回复: 2

关于用gevent 下载图片的问题

[复制链接]
发表于 2020-3-1 21:40:58 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
本帖最后由 Ootme 于 2020-3-3 12:53 编辑
  1. import urllib.request
  2. import os
  3. import random
  4. import gevent
  5. from gevent import monkey
  6. monkey.patch_all()

  7. user = 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0.3945.88 Safari/537.36'
  8. first={0:'w',1:'x',2:'y',3:'z',4:'0',5:'1',6:'2',7:'3',8:'4',9:'5'}
  9. second={0:'TA',1:'MT',2:'Mj',3:'Mz',4:'ND',5:'NT',6:'Nj',7:'Nz',8:'OD',9:'OT',\
  10.         10:'MTA',11:'MTE',12:'MTI',13:'MTM',14:'MTQ',15:'MTU',\
  11.         16:'MTY',17:'MTc',18:'MTg',19:'MTk'}
  12. dict1={1:'MQ',2:'Mg',3:'Mw',4:'NA',5:'NQ',6:'Ng',7:'Nw',8:'OA',9:'OQ'}

  13. ip=['114.139.34.209:8118','123.169.102.252:9999','117.91.252.141:9999','175.44.108.143:9999']

  14. def url_open(url):
  15.     proxy = random.choice(ip)
  16.     proxy_support = urllib.request.ProxyHandler({'https':proxy})
  17.     opener = urllib.request.build_opener(proxy_support)
  18.     urllib.request.install_opener(opener)
  19.    
  20.     req = urllib.request.Request(url)
  21.     req.add_header('User-Agent',user)
  22.     response = urllib.request.urlopen(req)
  23.     html = response.read()
  24.     return html
  25. def get_page(url):
  26.     html=url_open(url).decode("utf-8")
  27.    
  28.     a=html.find("current-comment-page")+23   
  29.     b=html.find("]",a)   

  30.     return html[a:b]
  31.         


  32. def img_find(url):
  33.     html=url_open(url).decode('utf-8')
  34.     img_addr = []
  35.     a=html.find('img src=')
  36.     while a !=-1:
  37.         b=html.find('.jpg',a,a+255)
  38.         if b != -1:
  39.             img_addr.append('http:'+html[a+9:b+4])
  40.         else :
  41.             b=a+9

  42.         a=html.find('img src=',b)
  43.     print(img_addr)
  44.     return img_addr   
  45.    

  46. def save(folder,img_addr):
  47.     os.chdir(folder)
  48.     for each in img_addr:
  49.         name = each.split('/')[-1]
  50.         with open(name,'wb') as f:
  51.             img = url_open(each)
  52.             f.write(img)
  53.             
  54.    

  55. def download(xin):
  56.     folder,begin,page = xin
  57.     folder = 'D:\python\jichuu\多任务\协程\\' + folder
  58.     os.mkdir(folder)
  59.     if begin == 'begin':
  60.         page_num=int(get_page(url))
  61.     else :
  62.         page_num = begin
  63.    
  64.     for i in range(page):
  65.         page_num -=i
  66.         url = 'http://www.jandan.net/ooxx/'
  67.         if page_num >=10:
  68.             url =url + 'MjAyMDAxMDct'+second[page_num//10]+ first[page_num%10]+ '=#comments'
  69.             img_addr = img_find(url)
  70.         else :
  71.             url =url + 'MjAyMDAxMDct'+ dict1[page_num%10]+ '=#comments'
  72.             img_addr = img_find(url)
  73.         save(folder,img_addr)

  74. def main():
  75.     g1=gevent.spawn(download,('ooxx1',180,2))
  76.     g2=gevent.spawn(download,('ooxx2',180,2))
  77.     g1.join()
  78.     g2.join()
  79.    

  80. if __name__ == '__main__':
  81.     main()
复制代码


前面应该没什么重要的,应该是最后的main函数出了问题
为什么我下载的两页一样的图片,两个文件夹的图片数量不一样
两个线程结束的时间为什么会不一样啊。。
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

 楼主| 发表于 2020-3-1 21:42:10 | 显示全部楼层
代码是用之前的代码改的  所以页码的字典有些没改过来
但是为什么两个线程的结束时间不一样啊
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2020-3-3 14:24:43 | 显示全部楼层
求助..
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2025-7-1 06:22

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表