鱼C论坛

 找回密码
 立即注册
查看: 2718|回复: 22

[已解决]爬取图片

[复制链接]
发表于 2023-5-30 10:54:50 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
请问大佬们,这个代码怎样修改一下才能把图片都下载下来呢
  1. import requests
  2. import logging
  3. import re
  4. from urllib.parse import urljoin
  5. from os.path import exists
  6. from os import makedirs

  7. result_dir = 'tu'
  8. exists(result_dir) or makedirs(result_dir)


  9. logging.basicConfig(level=logging.INFO,format = '%(asctime)s - %(levelname)s: %(message)s')

  10. header = {
  11.    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/108.0.0.0 Safari/537.36"
  12. }
  13. url = 'http://md.itlun.cn/a/nhtp/list_2_{}.html'
  14. pages = 3


  15. def scrpae_page(url):
  16.     logging.info('scraping %s...', url)
  17.     try:
  18.         response = requests.get(url=url,headers=header)
  19.         if response.status_code == 200:
  20.             response.encoding = 'gbk'
  21.             return response
  22.         logging.error('get invalid status code %s while scrape %s',response.status_code,url)
  23.     except requests.RequestException:
  24.         logging.error('error occurred while scraping %s',url,exc_info=True)

  25. #拼接URl,并爬取主页
  26. def scrape_index(page):
  27.     index_url = url.format(page)
  28.     return scrpae_page(index_url)

  29. #解析详情页url
  30. def parse_index(html):
  31.     #logging.info('{}'.format(html))
  32.     url_pattern = re.compile('<script.*?src = "(.*?)"; </script>',re.S)
  33.     items = re.findall(url_pattern,html)
  34.     title_pattern = re.compile('<script.*?<span>(.*?)</span>.*?</script>',re.S)
  35.     titles = re.findall(title_pattern,html)
  36.     # logging.info('{}'.format(list(titles)))

  37.     return {
  38.         '名称':titles,
  39.         'detail_url':items
  40.     }

  41. #拼接url,并调用scrpae_page
  42. def parse_url(dict):
  43.     for base_url in dict:
  44.         detail_url = urljoin(url,base_url)
  45.         return scrpae_page(detail_url).content

  46. #保存
  47. def save(title,conect):
  48.     for t in title:
  49.         img_path = result_dir + '/' + t + '.jpg'
  50.         with open(img_path,'wb') as fp:
  51.             fp.write(conect)



  52. def main():
  53.     for page in range(1,pages):
  54.         index_html = scrape_index(page)
  55.         title = parse_index(index_html.text)['名称']
  56.         details_url = parse_index(index_html.text)['detail_url']
  57.         conect = parse_url(details_url)
  58.         save(title,conect)
  59.         logging.info('保存成功')



  60. if __name__ == '__main__':
  61.     main()
复制代码
最佳答案
2023-5-30 12:35:12
[b]
  1. import requests
  2. import logging
  3. import re
  4. from urllib.parse import urljoin
  5. from os.path import exists
  6. from os import makedirs

  7. result_dir = 'tu'
  8. exists(result_dir) or makedirs(result_dir)


  9. logging.basicConfig(level=logging.INFO,format = '%(asctime)s - %(levelname)s: %(message)s')

  10. header = {
  11.    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/108.0.0.0 Safari/537.36"
  12. }
  13. url = 'http://md.itlun.cn/a/nhtp/list_2_{}.html'
  14. pages = 3


  15. def scrpae_page(url):
  16.     logging.info('scraping %s...', url)
  17.     try:
  18.         response = requests.get(url=url,headers=header)
  19.         if response.status_code == 200:
  20.             response.encoding = 'gbk'
  21.             return response
  22.         logging.error('get invalid status code %s while scrape %s',response.status_code,url)
  23.     except requests.RequestException:
  24.         logging.error('error occurred while scraping %s',url,exc_info=True)

  25. #拼接URl,并爬取主页
  26. def scrape_index(page):
  27.     index_url = url.format(page)
  28.     return scrpae_page(index_url)

  29. #解析详情页url
  30. def parse_index(html):
  31.     #logging.info('{}'.format(html))
  32.     url_pattern = re.compile('<script.*?src = "(.*?)"; </script>',re.S)
  33.     items = re.findall(url_pattern,html)
  34.     title_pattern = re.compile('<LI>.*?><IMG id="img.*?><span>(.*?)</span></a></LI>',re.S)                 # 修改了正则表达式
  35.     titles = re.findall(title_pattern,html)
  36.     # logging.info('{}'.format(list(titles)))
  37.     return {
  38.         '名称':titles,
  39.         'detail_url':items
  40.     }

  41. #拼接url,并调用scrpae_page
  42. def parse_url(path):
  43.     detail_url = urljoin(url, path)
  44.     return scrpae_page(detail_url).content

  45. #保存
  46. def save(title,conect):
  47.     invalid_chars = ['\\', '/', ':', '*', '?', '"', '<', '>', '|']  # Invalid Windows characters
  48.     for char in invalid_chars:
  49.         title = title.replace(char, '')

  50.     img_path = result_dir + '/' + title + '.jpg'
  51.     with open(img_path,'wb') as fp:
  52.         fp.write(conect)



  53. def main():
  54.     for page in range(1,pages):
  55.         index_html = scrape_index(page)
  56.         titles = parse_index(index_html.text)['名称']
  57.         details_url = parse_index(index_html.text)['detail_url']
  58.         for title, url in zip(titles, details_url):
  59.             conect = parse_url(url)
  60.             save(title,conect)
  61.             logging.info('保存成功')



  62. if __name__ == '__main__':
  63.     main()
复制代码


在修改后的代码中,我主要进行了以下几个方面的改动:

1. 解析详情页url的函数(parse_index):
我发现原先代码中的正则表达式可能无法正确匹配网页中的标题数据,所以我对其进行了修改。原本的表达式是 '<script.*?<span>(.*?)</span>.*?</script>',我修改为了 '<LI>.*?><IMG id="img.*?><span>(.*?)</span></a></LI>',这个正则表达式能够更精确地匹配网页中的标题数据。

2. 拼接URL并调用scrpae_page的函数(parse_url):
原先的代码中,这个函数接收的参数是一个字典,但是实际上我们只需要传入一个URL路径即可。因此我将这个函数的参数从字典改为了单个URL路径,这样处理后,函数的实现逻辑也变得更加清晰简单了。

3. 图片保存函数(save):
我注意到在保存图片文件的时候,如果标题中含有Windows系统不支持的特殊字符,会导致保存失败。因此,我加入了一个特殊字符的检查和替换过程。通过一个列表invalid_chars,我列出了Windows系统中文件名不支持的特殊字符,然后遍历这个列表,如果标题中含有这些字符,就将其替换为空字符。

4. 主函数(main):
我发现原来的代码中只保存了每页第一个项目的图片,而没有处理一个页面上的所有项目。因此,我在主函数中添加了一个内部的for循环,遍历每一页中的所有标题和链接,并进行下载保存,这样就可以完整地保存每一页中的所有图片了。


[/b]
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

发表于 2023-5-30 12:35:12 | 显示全部楼层    本楼为最佳答案   
[b]
  1. import requests
  2. import logging
  3. import re
  4. from urllib.parse import urljoin
  5. from os.path import exists
  6. from os import makedirs

  7. result_dir = 'tu'
  8. exists(result_dir) or makedirs(result_dir)


  9. logging.basicConfig(level=logging.INFO,format = '%(asctime)s - %(levelname)s: %(message)s')

  10. header = {
  11.    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/108.0.0.0 Safari/537.36"
  12. }
  13. url = 'http://md.itlun.cn/a/nhtp/list_2_{}.html'
  14. pages = 3


  15. def scrpae_page(url):
  16.     logging.info('scraping %s...', url)
  17.     try:
  18.         response = requests.get(url=url,headers=header)
  19.         if response.status_code == 200:
  20.             response.encoding = 'gbk'
  21.             return response
  22.         logging.error('get invalid status code %s while scrape %s',response.status_code,url)
  23.     except requests.RequestException:
  24.         logging.error('error occurred while scraping %s',url,exc_info=True)

  25. #拼接URl,并爬取主页
  26. def scrape_index(page):
  27.     index_url = url.format(page)
  28.     return scrpae_page(index_url)

  29. #解析详情页url
  30. def parse_index(html):
  31.     #logging.info('{}'.format(html))
  32.     url_pattern = re.compile('<script.*?src = "(.*?)"; </script>',re.S)
  33.     items = re.findall(url_pattern,html)
  34.     title_pattern = re.compile('<LI>.*?><IMG id="img.*?><span>(.*?)</span></a></LI>',re.S)                 # 修改了正则表达式
  35.     titles = re.findall(title_pattern,html)
  36.     # logging.info('{}'.format(list(titles)))
  37.     return {
  38.         '名称':titles,
  39.         'detail_url':items
  40.     }

  41. #拼接url,并调用scrpae_page
  42. def parse_url(path):
  43.     detail_url = urljoin(url, path)
  44.     return scrpae_page(detail_url).content

  45. #保存
  46. def save(title,conect):
  47.     invalid_chars = ['\\', '/', ':', '*', '?', '"', '<', '>', '|']  # Invalid Windows characters
  48.     for char in invalid_chars:
  49.         title = title.replace(char, '')

  50.     img_path = result_dir + '/' + title + '.jpg'
  51.     with open(img_path,'wb') as fp:
  52.         fp.write(conect)



  53. def main():
  54.     for page in range(1,pages):
  55.         index_html = scrape_index(page)
  56.         titles = parse_index(index_html.text)['名称']
  57.         details_url = parse_index(index_html.text)['detail_url']
  58.         for title, url in zip(titles, details_url):
  59.             conect = parse_url(url)
  60.             save(title,conect)
  61.             logging.info('保存成功')



  62. if __name__ == '__main__':
  63.     main()
复制代码


在修改后的代码中,我主要进行了以下几个方面的改动:

1. 解析详情页url的函数(parse_index):
我发现原先代码中的正则表达式可能无法正确匹配网页中的标题数据,所以我对其进行了修改。原本的表达式是 '<script.*?<span>(.*?)</span>.*?</script>',我修改为了 '<LI>.*?><IMG id="img.*?><span>(.*?)</span></a></LI>',这个正则表达式能够更精确地匹配网页中的标题数据。

2. 拼接URL并调用scrpae_page的函数(parse_url):
原先的代码中,这个函数接收的参数是一个字典,但是实际上我们只需要传入一个URL路径即可。因此我将这个函数的参数从字典改为了单个URL路径,这样处理后,函数的实现逻辑也变得更加清晰简单了。

3. 图片保存函数(save):
我注意到在保存图片文件的时候,如果标题中含有Windows系统不支持的特殊字符,会导致保存失败。因此,我加入了一个特殊字符的检查和替换过程。通过一个列表invalid_chars,我列出了Windows系统中文件名不支持的特殊字符,然后遍历这个列表,如果标题中含有这些字符,就将其替换为空字符。

4. 主函数(main):
我发现原来的代码中只保存了每页第一个项目的图片,而没有处理一个页面上的所有项目。因此,我在主函数中添加了一个内部的for循环,遍历每一页中的所有标题和链接,并进行下载保存,这样就可以完整地保存每一页中的所有图片了。


[/b]
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2023-5-30 14:25:23 | 显示全部楼层
1.第12行将result_dir改为result_path
2.将14行的判断条件改为if not exists(result_path): makedirs(result_path)
3.第20行的Chrome版本号应该改为实际版本号
4.第28行将scrpae_page修改为scrape_page
5.第32行的url.join应该改为urljoin
6.第40行的connect应该改为content
7.第44行的保存成功应该放在for循环里面,每次保存完都输出一次
8.第43行应该先判断conect是否为空,如果不为空再进行保存

修改后代码如下:


  1. import requests
  2. import logging
  3. import re
  4. from urllib.parse import urljoin
  5. from os.path import exists
  6. from os import makedirs

  7. result_path = 'tu'
  8. if not exists(result_path):
  9. makedirs(result_path)

  10. logging.basicConfig(level=logging.INFO, format='%(asctime)s - %(levelname)s: %(message)s')

  11. headers = {
  12. "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.131 Safari/537.36"
  13. }
  14. url = 'http://md.itlun.cn/a/nhtp/list_2_{}.html'
  15. pages = 3


  16. def scrape_page(url):
  17. logging.info('正在爬取 %s...', url)
  18. try:
  19. response = requests.get(url=url, headers=headers)
  20. if response.status_code == 200:
  21. response.encoding = 'gbk'
  22. return response
  23. logging.error('爬取 %s 时返回了错误的状态码 %s', url, response.status_code)
  24. except requests.RequestException:
  25. logging.error('爬取 %s 时发生错误', url, exc_info=True)


  26. #获取主页面内容
  27. def scrape_index(page):
  28. index_url = url.format(page)
  29. return scrape_page(index_url)


  30. # 解析详情页url
  31. def parse_index(html):
  32. url_pattern = re.compile('', re.S)
  33. items = re.findall(url_pattern, html)
  34. title_pattern = re.compile('(.*?).*?', re.S)
  35. titles = re.findall(title_pattern, html)

  36. return {
  37. '名称': titles,
  38. 'detail_url': items
  39. }


  40. #拼接url,并调用scrapte_page方法
  41. def parse_url(detail_url):
  42. for base_url in detail_url:
  43. detail_url = urljoin(url, base_url)
  44. content = scrape_page(detail_url).content
  45. if content:
  46. save(parse_index(detail_url)['名称'], content)


  47. #保存文件
  48. def save(title_list, content):
  49. for title in title_list:
  50. img_path = result_path + '/' + title + '.jpg'
  51. with open(img_path, 'wb') as f:
  52. f.write(content)
  53. logging.info('已保存%s张图片', len(title_list))


  54. def main():
  55. for page in range(1, pages):
  56. index_html = scrape_index(page)
  57. detail_url = parse_index(index_html.text)['detail_url']
  58. parse_url(detail_url)


  59. if __name__ == '__main__':
  60. main()
复制代码
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2023-5-30 15:19:22 | 显示全部楼层
isdkz 发表于 2023-5-30 12:35
在修改后的代码中,我主要进行了以下几个方面的改动:

1. 解析详情页url的函数(parse_index):

好的,感谢感谢
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2023-5-30 15:19:54 | 显示全部楼层
天地丶良心 发表于 2023-5-30 14:25
1.第12行将result_dir改为result_path
2.将14行的判断条件改为if not exists(result_path): makedirs(resu ...

好的,感谢感谢
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2023-5-30 15:34:26 | 显示全部楼层
isdkz 发表于 2023-5-30 12:35
在修改后的代码中,我主要进行了以下几个方面的改动:

1. 解析详情页url的函数(parse_index):

请问一下,如果想改成多线程该怎么改呢
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2023-5-30 16:15:37 | 显示全部楼层
哈岁NB 发表于 2023-5-30 15:34
请问一下,如果想改成多线程该怎么改呢

对于你的爬虫代码,可以使用Python的线程池 concurrent.futures.ThreadPoolExecutor 来并发的运行你的任务。下面是一个示例:

  1. import requests
  2. import logging
  3. import re
  4. from urllib.parse import urljoin
  5. from os.path import exists
  6. from os import makedirs
  7. from concurrent.futures import ThreadPoolExecutor

  8. result_dir = 'tu'
  9. exists(result_dir) or makedirs(result_dir)

  10. logging.basicConfig(level=logging.INFO,format = '%(asctime)s - %(levelname)s: %(message)s')

  11. header = {
  12.     "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/108.0.0.0 Safari/537.36"
  13. }
  14. url = 'http://md.itlun.cn/a/nhtp/list_2_{}.html'
  15. pages = 3


  16. def scrape_page(url):
  17.     logging.info('scraping %s...', url)
  18.     try:
  19.         response = requests.get(url=url,headers=header)
  20.         if response.status_code == 200:
  21.             response.encoding = 'gbk'
  22.             return response
  23.         logging.error('get invalid status code %s while scrape %s',response.status_code,url)
  24.     except requests.RequestException:
  25.         logging.error('error occurred while scraping %s',url,exc_info=True)


  26. def scrape_index(page):
  27.     index_url = url.format(page)
  28.     return scrape_page(index_url)


  29. def parse_index(html):
  30.     url_pattern = re.compile('<script.*?src = "(.*?)"; </script>',re.S)
  31.     items = re.findall(url_pattern,html)
  32.     title_pattern = re.compile('<LI>.*?><IMG id="img.*?><span>(.*?)</span></a></LI>',re.S)
  33.     titles = re.findall(title_pattern,html)
  34.     return {
  35.         '名称':titles,
  36.         'detail_url':items
  37.     }


  38. def parse_url(path):
  39.     detail_url = urljoin(url, path)
  40.     return scrape_page(detail_url).content


  41. def save(title,content):
  42.     invalid_chars = ['\\', '/', ':', '*', '?', '"', '<', '>', '|']  # Invalid Windows characters
  43.     for char in invalid_chars:
  44.         title = title.replace(char, '')

  45.     img_path = result_dir + '/' + title + '.jpg'
  46.     with open(img_path,'wb') as fp:
  47.         fp.write(content)
  48.     logging.info('保存成功')


  49. def main():
  50.     with ThreadPoolExecutor(max_workers=4) as executor:  # 更改max_workers的值来改变线程池中线程的数量
  51.         for page in range(1, pages):
  52.             index_html = scrape_index(page)
  53.             titles = parse_index(index_html.text)['名称']
  54.             details_url = parse_index(index_html.text)['detail_url']
  55.             for title, url in zip(titles, details_url):
  56.                 executor.submit(save, title, parse_url(url))  # 提交任务到线程池
  57.                


  58. if __name__ == '__main__':
  59.     main()
复制代码


这个版本的代码使用了一个线程池,其中包含4个工作线程(这个数量可以调整),并且使用 executor.submit 来提交任务到线程池。 save 和 parse_url 函数将并行执行,这将显著提高你的爬虫程序的速度。

注意,使用多线程并不总是可以提高爬虫的速度,这取决于你的代码是否主要受I/O(例如网络请求)影响

,以及你的目标网站是否允许大量并发请求。如果你的爬虫主要受CPU限制(例如,大量的数据处理或计算),或者你的目标网站对并发请求有严格的限制,那么增加线程数可能不会有太大的帮助,甚至可能对你的爬虫产生负面影响。
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2023-5-30 16:18:36 | 显示全部楼层
哈岁NB 发表于 2023-5-30 15:34
请问一下,如果想改成多线程该怎么改呢

可以通过使用Python中的多线程模块进行改进。具体来说,可以将主体循环程序放在一个线程中,然后在另一个线程中定义一个函数,获取并解析详情页url,并调用scrapte_page方法进行爬取和保存文件。多个线程同时进行这个过程,从而提高爬取速度。
下面是修改后的代码示例:

import requests
import logging
import re
from urllib.parse import urljoin
from os.path import exists
from os import makedirs
import threading

result_path = 'tu'
if not exists(result_path):
makedirs(result_path)

logging.basicConfig(level=logging.INFO, format='%(asctime)s - %(levelname)s: %(message)s')

headers = {
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.131 Safari/537.36"
}
url = 'http://md.itlun.cn/a/nhtp/list_2_{}.html'
pages = 3

def scrape_page(url):
logging.info('正在爬取 %s...', url)
try:
response = requests.get(url=url, headers=headers)
if response.status_code == 200:
response.encoding = 'gbk'
return response
logging.error('爬取 %s 时返回了错误的状态码 %s', url, response.status_code)
except requests.RequestException:
logging.error('爬取 %s 时发生错误', url, exc_info=True)

#获取主页面内容
def scrape_index(page):
index_url = url.format(page)
return scrape_page(index_url)

# 解析详情页url
def parse_index(html):
url_pattern = re.compile('', re.S)
items = re.findall(url_pattern, html)
title_pattern = re.compile('(.*?)', re.S)
titles = re.findall(title_pattern, html)

return {
'名称': titles,
'detail_url': items
}

#拼接url,并调用scrapte_page方法
def parse_url(detail_url):
for base_url in detail_url:
detail_url = urljoin(url, base_url)
content = scrape_page(detail_url).content
if content:
save(parse_index(detail_url)['名称'], content)

#保存文件
def save(title_list, content):
for title in title_list:
img_path = result_path + '/' + title + '.jpg'
with open(img_path, 'wb') as f:
f.write(content)
logging.info('已保存%s张图片', len(title_list))

def worker(page):
index_html = scrape_index(page)
detail_url = parse_index(index_html.text)['detail_url']
parse_url(detail_url)

def main():
threads = []
for page in range(1, pages):
t = threading.Thread(target=worker, args=(page,))
threads.append(t)
t.start()

for t in threads:
t.join()

if __name__ == '__main__':
main()
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2023-5-30 16:22:21 | 显示全部楼层
天地丶良心 发表于 2023-5-30 14:25
1.第12行将result_dir改为result_path
2.将14行的判断条件改为if not exists(result_path): makedirs(resu ...


你是认真的吗
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2023-5-30 16:28:20 | 显示全部楼层

试试就知道了
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2023-5-30 16:29:50 | 显示全部楼层

试了,完全行不通
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2023-5-30 16:30:38 | 显示全部楼层
那就不知道了
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2023-5-30 16:39:05 | 显示全部楼层

不知道你还发
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2023-5-30 16:43:14 | 显示全部楼层

错的不能发?谁规定不能发?
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2023-5-30 16:47:19 | 显示全部楼层
天地丶良心 发表于 2023-5-30 16:43
错的不能发?谁规定不能发?

那你也不能瞎发呀,自己都没试过的还让别人试,混淆视听,都不知道你这从哪搞来的就发出来

也不像chatgpt,chatgpt不会错的这么离谱的
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2023-5-30 16:53:01 | 显示全部楼层
哈岁NB 发表于 2023-5-30 15:34
请问一下,如果想改成多线程该怎么改呢

你可以使用 Python 的 `concurrent.futures` 库。
以下是修改后的代码:

```python
import requests
import logging
import re
from urllib.parse import urljoin
from os.path import exists
from os import makedirs
from concurrent.futures import ThreadPoolExecutor

result_path = 'tu'
if not exists(result_path):
    makedirs(result_path)

logging.basicConfig(level=logging.INFO, format='%(asctime)s - %(levelname)s: %(message)s')

headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.131 Safari/537.36"
}
url = 'http://md.itlun.cn/a/nhtp/list_2_{}.html'
pages = 3

def scrape_page(url):
    # ... (same as before)

def scrape_index(page):
    # ... (same as before)

def parse_index(html):
    # ... (same as before)

def parse_url(detail_url):
    # ... (same as before)

def save(title_list, content):
    # ... (same as before)

def process_page(page):
    index_html = scrape_index(page)
    detail_url = parse_index(index_html.text)['detail_url']
    parse_url(detail_url)

def main():
    with ThreadPoolExecutor() as executor:
        executor.map(process_page, range(1, pages + 1))

if __name__ == '__main__':
    main()
```

这里的主要更改是:

1. 导入 `ThreadPoolExecutor` 类。
2. 创建一个新的 `process_page` 函数,它将处理每个页面的爬取和解析。
3. 在 `main` 函数中,使用 `ThreadPoolExecutor` 创建一个线程池,并使用 `executor.map` 方法将 `process_page` 函数应用到每个页面。

这样,程序将使用多线程并行处理每个页面,从而提高爬虫的速度。你可以根据需要调整线程池的大小。
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2023-5-30 16:59:45 | 显示全部楼层
isdkz 发表于 2023-5-30 16:15
对于你的爬虫代码,可以使用Python的线程池 concurrent.futures.ThreadPoolExecutor 来并发的运行你的任 ...

好的,感谢感谢
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2023-5-30 16:59:58 | 显示全部楼层
isdkz 发表于 2023-5-30 16:47
那你也不能瞎发呀,自己都没试过的还让别人试,混淆视听,都不知道你这从哪搞来的就发出来

也不像chat ...

从太上老君的炼丹炉偷来的
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2023-5-30 17:00:16 | 显示全部楼层
天地丶良心 发表于 2023-5-30 16:18
可以通过使用Python中的多线程模块进行改进。具体来说,可以将主体循环程序放在一个线程中,然后在另一个 ...

好的,感谢感谢
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2023-5-30 17:03:42 | 显示全部楼层
isdkz 发表于 2023-5-30 16:47
那你也不能瞎发呀,自己都没试过的还让别人试,混淆视听,都不知道你这从哪搞来的就发出来

也不像chat ...

16楼是用孙悟空的金箍棒变出来的,还有错误吗?
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2025-7-1 05:48

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表