鱼C论坛

 找回密码
 立即注册
查看: 1445|回复: 4

[已解决]关于爬虫的问题

[复制链接]
发表于 2022-6-12 00:18:33 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
最近学了一点爬虫但是不知道这个为什么这个程序一直报错
  1. import urllib.request
  2. from lxml import etree

  3. def create_response(page):
  4.     if 1 == page:
  5.         url = 'https://sc.chinaz.com/tu/meinv.html'
  6.     else:
  7.         str(page)
  8.         url = "https://sc.chinaz.com/tu/meinv-%s-0-0.html"%page

  9.     headers = {
  10.         "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/102.0.0.0 Safari/537.36"
  11.     }

  12.     response = urllib.request.Request(url, headers = headers)

  13.     return response

  14. def get_info(response):
  15.     request = urllib.request.urlopen(response)
  16.     content = request.read().decode('utf-8')

  17.     return content

  18. def down_img(content):
  19.     tree = etree.HTML(content)
  20.     nameList = tree.xpath('//div[@id="ulcontent"]//div//img/@alt')
  21.     imgList = tree.xpath('//div[@id="ulcontent"]//div//img/@data-src')

  22.     for i in range(len(nameList) - 1):
  23.         img = 'https:' + imgList[i]
  24.         name = nameList[i]
  25.         print(img)
  26.         # urllib.request.urlretrieve(img, name + '.jpg')
  27.     print("Over")

  28. if __name__ == '__main__':
  29.     startPage = int(input("请输入开始页:"))
  30.     endPage = int(input("请输入结束页:"))

  31.     for page in range(startPage, endPage + 1):
  32.         response = create_response(page)
  33.         content = get_info(response)
  34.         down_img(content)

复制代码
最佳答案
2022-6-12 00:47:19
Mr丶张 发表于 2022-6-12 00:21
34行的注释解开了会报错

注意:你的网址中有\,应当全部替换为/
  1. import urllib.request
  2. from lxml import etree

  3. def create_response(page):
  4.     if 1 == page:
  5.         url = 'https://sc.chinaz.com/tu/meinv.html'
  6.     else:
  7.         str(page)
  8.         url = "https://sc.chinaz.com/tu/meinv-%s-0-0.html"%page

  9.     headers = {
  10.         "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/102.0.0.0 Safari/537.36"
  11.     }

  12.     response = urllib.request.Request(url, headers = headers)

  13.     return response

  14. def get_info(response):
  15.     request = urllib.request.urlopen(response)
  16.     content = request.read().decode('utf-8')

  17.     return content

  18. def down_img(content):
  19.     tree = etree.HTML(content)
  20.     nameList = tree.xpath('//div[@id="ulcontent"]//div//img/@alt')
  21.     imgList = tree.xpath('//div[@id="ulcontent"]//div//img/@data-src')

  22.     for i in range(len(nameList) - 1):
  23.         img = 'https:' + imgList[i]
  24.         name = nameList[i]
  25.         print(img)
  26.         urllib.request.urlretrieve(img.replace("\","/"), name + '.jpg')  # 注意:你的网址中有\,应当全部替换为/
  27.     print("Over")

  28. if __name__ == '__main__':
  29.     startPage = int(input("请输入开始页:"))
  30.     endPage = int(input("请输入结束页:"))

  31.     for page in range(startPage, endPage + 1):
  32.         response = create_response(page)
  33.         content = get_info(response)
  34.         down_img(content)
复制代码
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

 楼主| 发表于 2022-6-12 00:21:14 | 显示全部楼层
34行的注释解开了会报错
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2022-6-12 00:22:45 | 显示全部楼层
我运行一切正常啊
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2022-6-12 00:47:19 | 显示全部楼层    本楼为最佳答案   
Mr丶张 发表于 2022-6-12 00:21
34行的注释解开了会报错

注意:你的网址中有\,应当全部替换为/
  1. import urllib.request
  2. from lxml import etree

  3. def create_response(page):
  4.     if 1 == page:
  5.         url = 'https://sc.chinaz.com/tu/meinv.html'
  6.     else:
  7.         str(page)
  8.         url = "https://sc.chinaz.com/tu/meinv-%s-0-0.html"%page

  9.     headers = {
  10.         "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/102.0.0.0 Safari/537.36"
  11.     }

  12.     response = urllib.request.Request(url, headers = headers)

  13.     return response

  14. def get_info(response):
  15.     request = urllib.request.urlopen(response)
  16.     content = request.read().decode('utf-8')

  17.     return content

  18. def down_img(content):
  19.     tree = etree.HTML(content)
  20.     nameList = tree.xpath('//div[@id="ulcontent"]//div//img/@alt')
  21.     imgList = tree.xpath('//div[@id="ulcontent"]//div//img/@data-src')

  22.     for i in range(len(nameList) - 1):
  23.         img = 'https:' + imgList[i]
  24.         name = nameList[i]
  25.         print(img)
  26.         urllib.request.urlretrieve(img.replace("\","/"), name + '.jpg')  # 注意:你的网址中有\,应当全部替换为/
  27.     print("Over")

  28. if __name__ == '__main__':
  29.     startPage = int(input("请输入开始页:"))
  30.     endPage = int(input("请输入结束页:"))

  31.     for page in range(startPage, endPage + 1):
  32.         response = create_response(page)
  33.         content = get_info(response)
  34.         down_img(content)
复制代码
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2022-6-12 12:46:21 | 显示全部楼层
Mr丶张 发表于 2022-6-12 00:21
34行的注释解开了会报错

问题解决了吗?
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2025-6-22 19:19

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表