鱼C论坛

 找回密码
 立即注册
查看: 1143|回复: 5

[已解决]多线程爬表情包爬不到内容

[复制链接]
发表于 2020-5-3 17:42:56 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
本帖最后由 xmpython 于 2020-5-3 19:52 编辑

大哥哥大姐姐能不能帮我看看我这程序哪里有问题啊,为啥运行几秒之后就自动结束,而且什么内容都没爬到
不用多线程的时候能爬图片,很正常,加上多线程之后就不行了,点运行之后啥反应都没有,过几秒自动结束程序,而且啥东西都没爬到。。。。要哭了
  1. import requests
  2. from lxml import etree
  3. from fake_useragent import UserAgent
  4. from urllib import request
  5. import threading
  6. from queue import Queue


  7. class Producer(threading.Thread):
  8.     headers = {
  9.         "User-Agent": UserAgent().chrome
  10.     }

  11.     def __init__(self, page_queue, img_queue, *args, **kwargs):
  12.         super(Producer, self).__init__(*args, **kwargs)
  13.         self.page_queue = page_queue
  14.         self.img_queue = img_queue

  15.     def run(self):
  16.         while True:
  17.             if self.page_queue.empty():
  18.                 break
  19.             url = self.page_queue.get()
  20.             self.get_url(url)

  21.     def get_url(self, url):
  22.         response = requests.get(url, headers=self.headers)
  23.         e = etree.HTML(response.text)
  24.         img_urls = e.xpath("//div[@class='page-content text-center']/div/a/img/@data-original")
  25.         for img in img_urls:
  26.             self.img_queue.put(img)


  27. class Consumer(threading.Thread):
  28.     def __init__(self, page_queue, img_queue, *args, **kwargs):
  29.         super(Consumer, self).__init__(*args, **kwargs)
  30.         self.page_queue = page_queue
  31.         self.img_queue = img_queue

  32.     def run(self):
  33.         while True:
  34.             if self.img_queue.empty() and self.page_queue.empty():
  35.                 break
  36.             img_url = self.img_queue.get()
  37.             filename = img_url.split("/")[-1]
  38.             request.urlretrieve(img_url, "images/" + filename, None)
  39.             print(img_url)


  40. def main():
  41.     page_queue = Queue(3)
  42.     img_queue = Queue(1000)
  43.     for x in range(1, 4):
  44.         page_url = "https://www.doutula.com/photo/list/?page=%d" % x
  45.         page_queue.put(page_url)

  46.     for x in range(5):
  47.         t = Producer(page_queue, img_queue)
  48.         t.start()

  49.     for x in range(5):
  50.         t = Consumer(page_queue, img_queue)
  51.         t.start()


  52. if __name__ == '__main__':
  53.     main()
复制代码


新手还没有权限发图
图链接https://imgchr.com/i/YpPZss

                               
登录/注册后可看大图

最佳答案
2020-5-11 18:05:17
本帖最后由 suchocolate 于 2020-5-11 18:11 编辑
  1. import requests
  2. from lxml import etree
  3. from urllib import request
  4. import threading
  5. from queue import Queue


  6. class Producer(threading.Thread):
  7.     def __init__(self, page_queue, img_queue, *args, **kwargs):
  8.         super(Producer, self).__init__(*args, **kwargs)
  9.         self.headers = {'user-agent': 'firefox'}      # 有改动
  10.         self.page_queue = page_queue
  11.         self.img_queue = img_queue

  12.     def run(self):
  13.         while not self.page_queue.empty():    # 有改动
  14.             url = self.page_queue.get()
  15.             self.get_url(url)

  16.     def get_url(self, url):
  17.         response = requests.get(url, headers=self.headers)
  18.         e = etree.HTML(response.text)
  19.         img_urls = e.xpath("//div[@class='page-content text-center']/div/a/img/@data-original")
  20.         for img in img_urls:
  21.             self.img_queue.put(img)


  22. class Consumer(threading.Thread):
  23.     def __init__(self, img_queue, *args, **kwargs):
  24.         super(Consumer, self).__init__(*args, **kwargs)
  25.         self.img_queue = img_queue     # 有改动

  26.     def run(self):
  27.         while not self.img_queue.empty():   # 有改动
  28.             img_url = self.img_queue.get()
  29.             filename = img_url.split("/")[-1]
  30.             request.urlretrieve(img_url, "images/" + filename, None)
  31.             print(img_url)


  32. def main():
  33.     page_queue = Queue(3)
  34.     img_queue = Queue(1000)
  35.     for x in range(1, 4):
  36.         page_url = "https://www.doutula.com/photo/list/?page=%d" % x
  37.         page_queue.put(page_url)
  38.     t_l_p = []    # 新增
  39.     t_l_c = []    # 新增
  40.     for x in range(3):    # 线程数大于队列数,会有线程不干活的
  41.         t = Producer(page_queue, img_queue)
  42.         t.start()
  43.         t_l_p.append(t)
  44.     for t in t_l_p:
  45.         t.join()    # 得等获取完url再继续
  46.     for x in range(3):
  47.         t = Consumer(img_queue)
  48.         t.start()
  49.         t_l_c.append(t)
  50.     for t in t_l_c:
  51.         t.join()
  52.     print('It's over')


  53. if __name__ == '__main__':
  54.     main()
复制代码
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

发表于 2020-5-3 18:09:18 | 显示全部楼层
用图床发
https://imgchr.com/
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2020-5-3 19:53:53 | 显示全部楼层
liuzhengyuan 发表于 2020-5-3 18:09
用图床发
https://imgchr.com/

欧克欧克
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-5-11 12:00:55 | 显示全部楼层
不懂python

1. 你的 queue 容量为 3, 为什么有 5 个 Producer, Consumer
2. run 函数是会自动执行吗
3. 主线程需要等待 Producer Consumer 的退出吗
4. Queue 是线程安全的吗
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-5-11 18:05:17 | 显示全部楼层    本楼为最佳答案   
本帖最后由 suchocolate 于 2020-5-11 18:11 编辑
  1. import requests
  2. from lxml import etree
  3. from urllib import request
  4. import threading
  5. from queue import Queue


  6. class Producer(threading.Thread):
  7.     def __init__(self, page_queue, img_queue, *args, **kwargs):
  8.         super(Producer, self).__init__(*args, **kwargs)
  9.         self.headers = {'user-agent': 'firefox'}      # 有改动
  10.         self.page_queue = page_queue
  11.         self.img_queue = img_queue

  12.     def run(self):
  13.         while not self.page_queue.empty():    # 有改动
  14.             url = self.page_queue.get()
  15.             self.get_url(url)

  16.     def get_url(self, url):
  17.         response = requests.get(url, headers=self.headers)
  18.         e = etree.HTML(response.text)
  19.         img_urls = e.xpath("//div[@class='page-content text-center']/div/a/img/@data-original")
  20.         for img in img_urls:
  21.             self.img_queue.put(img)


  22. class Consumer(threading.Thread):
  23.     def __init__(self, img_queue, *args, **kwargs):
  24.         super(Consumer, self).__init__(*args, **kwargs)
  25.         self.img_queue = img_queue     # 有改动

  26.     def run(self):
  27.         while not self.img_queue.empty():   # 有改动
  28.             img_url = self.img_queue.get()
  29.             filename = img_url.split("/")[-1]
  30.             request.urlretrieve(img_url, "images/" + filename, None)
  31.             print(img_url)


  32. def main():
  33.     page_queue = Queue(3)
  34.     img_queue = Queue(1000)
  35.     for x in range(1, 4):
  36.         page_url = "https://www.doutula.com/photo/list/?page=%d" % x
  37.         page_queue.put(page_url)
  38.     t_l_p = []    # 新增
  39.     t_l_c = []    # 新增
  40.     for x in range(3):    # 线程数大于队列数,会有线程不干活的
  41.         t = Producer(page_queue, img_queue)
  42.         t.start()
  43.         t_l_p.append(t)
  44.     for t in t_l_p:
  45.         t.join()    # 得等获取完url再继续
  46.     for x in range(3):
  47.         t = Consumer(img_queue)
  48.         t.start()
  49.         t_l_c.append(t)
  50.     for t in t_l_c:
  51.         t.join()
  52.     print('It's over')


  53. if __name__ == '__main__':
  54.     main()
复制代码
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-5-18 02:51:46 | 显示全部楼层
斗图网有反爬,多线程会挂掉
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2025-6-19 13:36

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表