鱼C论坛

 找回密码
 立即注册
查看: 1707|回复: 10

[已解决]网站下载图片的问题

[复制链接]
发表于 2023-9-30 10:48:44 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
1696042047733.jpg
这个是哪里出错了大佬们
代码:
  1. import urllib.request
  2. import os


  3. def url_open(url):
  4.     req = urllib.request.Request(url)#打开连接 然后下面设置User-Agent模拟电脑访问
  5.     req.add_header('User-Agent','Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/113.0.0.0 Safari/537.36')
  6.     response = urllib.request.urlopen(url)#打开网址
  7.     #print(url)
  8.     html = response.read()
  9.     return html
  10.    
  11. def get_page(url):
  12.     html = url_open(url).decode('gb2312','ignore')#编码
  13.     a = html.find('<a class="current" href="javascript:void(0)">')+45
  14.     #print(a)
  15.     b =  html.find('<',a)
  16.     #print(b)
  17.     print(html[a:b])
  18.     return html[a:b]

  19. def find_imgs(url):
  20.     html = url_open(url).decode('gb2312','ignore')
  21.     img_addrs = []

  22.     a = html.find('img src=')
  23.     print(a)
  24.    
  25.     while a != -1:
  26.         b = html.find('.jpg',a,a+255)
  27.         print(b)
  28.         if b != -1:
  29.             img_addrs.append(html[a+9:b+4])
  30.         else:
  31.             b = a+9

  32.         a = html.find('img src=',b)

  33.         for each in img_addrs:
  34.             #print(each)  #打印找到的图片地址
  35.             return img_addrs


  36.    

  37. def save_imgs(folder,img_addrs):
  38.     for each in img_addrs:
  39.         filename = each.split('/')[-1]
  40.         with open(filename,'wb') as f:
  41.             img = url_open(each)
  42.             f.write(img)
  43.             




  44. def download_mm(folder='OOXX',pages=20):
  45.     os.mkdir(folder)
  46.     os.chdir(folder)

  47.     url = 'https://car.autohome.com.cn/pic/series/6388-10.html'
  48.     page_num = int(get_page(url))
  49.     print(page_num)

  50.     for i in range(pages):
  51.         page_num -= i  #每个图片地址的页码
  52.         page_url = 'https://car.autohome.com.cn/pic/series/6388-10-p' + str(page_num) + '.html'#重新拼成一个地址  页码-1
  53.         print(i)
  54.         img_addrs = find_imgs(page_url)#把图片的地址保存成列表然后返回
  55.         save_imgs(folder,img_addrs)#把列表中的页面保存起来
  56.         
  57.         

  58. if __name__ == '__main__':
  59.     download_mm()

  60.         
  61.    




  62. #https://car.autohome.com.cn/pic/series/6388-10-p2.html






复制代码
最佳答案
2023-10-1 02:37:24
本帖最后由 阿奇_o 于 2023-10-1 02:46 编辑
加速星球 发表于 2023-9-30 21:16
试了还是不行,还是没搞好,不知道错哪里了


一步步来,才比较好确定哪里出错了。。
先搞定一页(第一页共60张图),建议用正则表达式来查找img(或bs4等解析后用css选择器等也行),这样更方便,比如:
  1. html = resp.decode(encoding='gb2312', errors='ignore')

  2. import re

  3. pattern = '<img src="(.*?)" alt="2023款 .*?" title="(2023款 .*?)">'
  4. imgs = re.findall(pattern, html)

  5. print(len(imgs))
  6. print(imgs)

复制代码


其次,考虑到图片较多,最后应该改为用 异步下载 的方式(aiohttp+asyncio),这个你可以自己研究一下,会让有一定难度。

最后,再解决 翻页 等问题。。


ps: 对了,正则获取到的图片的url,需要自己加上 协议名!!比如:
  1. img_urls = ['https:' + i[0] for i in imgs]  
复制代码



本帖被以下淘专辑推荐:

小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

发表于 2023-9-30 10:48:55 | 显示全部楼层
这段代码的问题在于 find_imgs 函数中,当找到第一张图片地址后就直接返回了,而没有继续查找其它图片地址。应该将 return 语句放到 for 循环外面,如下所示:

  1. def find_imgs(url):
  2.     html = url_open(url).decode('gb2312','ignore')
  3.     img_addrs = []

  4.     a = html.find('img src=')
  5.     while a != -1:
  6.         b = html.find('.jpg',a,a+255)
  7.         if b != -1:
  8.             img_addrs.append(html[a+9:b+4])
  9.         else:
  10.             b = a+9

  11.         a = html.find('img src=',b)

  12.     return img_addrs
复制代码


另外,这段代码中使用了 decode 函数将网页内容从 gb2312 编码转换为 unicode 编码。但是,现代网页通常使用的是 utf-8 编码,所以应该将 decode 函数中的 gb2312 改为 utf-8 ,如下所示:

  1. html = url_open(url).decode('utf-8','ignore')
复制代码
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2023-9-30 10:49:17 | 显示全部楼层
根据您提供的代码,有几个可能的问题导致下载图片失败:

1. 编码问题:在url_openfind_imgs函数中,您使用了decode('gb2312','ignore')来解码网页内容。但是,并不是所有的网页都使用gb2312编码,可能会导致解码错误。为了避免这个问题,可以尝试使用更通用的UTF-8编码进行解码。

修改代码如下:
  1. html = url_open(url).decode('utf-8', 'ignore')
复制代码

2. 图片地址分析问题:在find_imgs函数中,您使用了简单的字符串查找方法来获取图片地址,这种方法可能会导致找到错误的地址或者无法正确识别图片链接。推荐使用正则表达式来提取图片地址。

修改代码如下:
  1. import re
  2. def find_imgs(url):
  3.     html = url_open(url).decode('utf-8', 'ignore')
  4.     img_addrs = []
  5.     pattern = r'<img\s+src="(https?://[^"]+\.jpg)"'
  6.     img_addrs = re.findall(pattern, html)
  7.     return img_addrs
复制代码

请注意,这只是一种简单的示例正则表达式,实际上网页中的图片标签可能会有很多变化,请根据具体情况调整正则表达式的模式。

通过以上两个修改,您可以尝试重新运行代码并下载图片。如果问题仍然存在,请提供具体的错误信息或者截图,以便进一步帮助您解决问题。

球一个最佳答案谢谢啦!这对我非常重要!
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2023-9-30 10:49:59 | 显示全部楼层
根据你提供的代码,有几个问题可能会导致下载图片出错:

1. find_imgs() 函数中的字符串查找逻辑有错误。你使用了 'img src=' 作为查找条件,但实际上在 HTML 中图片的地址可能会有其他形式,例如 'img data-src='。你需要修改字符串查找的条件来适应不同的图片地址格式。

2. 在 save_imgs() 函数中,将图片写入文件时使用了错误的打开模式。应该使用二进制写入模式('wb')而不是默认的文本写入模式。

3. 在主函数 download_mm() 中,你使用了未定义的变量 page_num。这会导致下载的图片地址不正确。你可以将 page_num 初始化为 page_num = int(get_page(url)) 以获得正确的页码。

综上所述,以下是修改后的代码,请尝试运行:

  1. import urllib.request
  2. import os

  3. def url_open(url):
  4.     req = urllib.request.Request(url)
  5.     req.add_header('User-Agent', 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/113.0.0.0 Safari/537.36')
  6.     response = urllib.request.urlopen(url)
  7.     html = response.read()
  8.     return html

  9. def get_page(url):
  10.     html = url_open(url).decode('gb2312', 'ignore')
  11.     a = html.find('<a class="current" href="javascript:void(0)">') + 45
  12.     b = html.find('<', a)
  13.     print(html[a:b])
  14.     return html[a:b]

  15. def find_imgs(url):
  16.     html = url_open(url).decode('gb2312', 'ignore')
  17.     img_addrs = []
  18.     a = html.find('img src=')
  19.     while a != -1:
  20.         b = html.find('.jpg', a, a + 255)
  21.         if b != -1:
  22.             img_addrs.append(html[a + 9:b + 4])
  23.         else:
  24.             b = a + 9
  25.         a = html.find('img src=', b)
  26.     return img_addrs

  27. def save_imgs(folder, img_addrs):
  28.     for each in img_addrs:
  29.         filename = each.split('/')[-1]
  30.         with open(filename, 'wb') as f:
  31.             img = url_open(each)
  32.             f.write(img)

  33. def download_mm(folder='OOXX', pages=20):
  34.     os.mkdir(folder)
  35.     os.chdir(folder)
  36.     url = 'https://car.autohome.com.cn/pic/series/6388-10.html'
  37.     page_num = int(get_page(url))
  38.     print(page_num)
  39.     for i in range(pages):
  40.         page_num -= i
  41.         page_url = 'https://car.autohome.com.cn/pic/series/6388-10-p' + str(page_num) + '.html'
  42.         print(i)
  43.         img_addrs = find_imgs(page_url)
  44.         save_imgs(folder, img_addrs)

  45. if __name__ == '__main__':
  46.     download_mm()
复制代码


请注意,由于网络环境和目标网站的可能变化,代码仍然存在其他潜在问题。如果问题仍然存在,请提供详细的错误信息以便更好地帮助你。
如果问题已经解决,请设置最佳答案
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2023-9-30 11:48:29 | 显示全部楼层
isdkz 发表于 2023-9-30 10:48
这段代码的问题在于 find_imgs 函数中,当找到第一张图片地址后就直接返回了,而没有继续查找其它图片地址 ...

嗯嗯  上面的循环改了。然后下面的编码没错,是gb2312的,不过还是不行,现在显示raise ValueError("unknown url type: %r" % self.full_url)
ValueError: unknown url type: '//car3.autoimg.cn/cardfs/product/g27/M01/C3/73/480x360_0_q95_c42_autohomecar__ChxkmWQ9HPyACTP8AGi4nC_D0PA803.jpg'
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2023-9-30 11:49:17 | 显示全部楼层
Mike_python小 发表于 2023-9-30 10:49
根据您提供的代码,有几个可能的问题导致下载图片失败:

1. 编码问题:在url_open和find_imgs函数中,您使 ...

编码没错,是gb2312的,现在显示raise ValueError("unknown url type: %r" % self.full_url)
ValueError: unknown url type: '//car3.autoimg.cn/cardfs/product/g27/M01/C3/73/480x360_0_q95_c42_autohomecar__ChxkmWQ9HPyACTP8AGi4nC_D0PA803.jpg'
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2023-9-30 11:51:02 | 显示全部楼层
加速星球 发表于 2023-9-30 08:49
编码没错,是gb2312的,现在显示raise ValueError("unknown url type: %r" % self.full_url)
ValueError ...

根据你提供的代码和错误信息来看,可能是在调用`url_open(url)`函数时出现了问题。根据错误信息中的URL "//car3.autoimg.cn/cardfs/product/g27/M01/C3/73/480x360_0_q95_c42_autohomecar__ChxkmWQ9HPyACTP8AGi4nC_D0PA803.jpg" 可以看出,URL中的协议部分缺失。为了解决这个问题,你可以尝试在调用`url_open`函数之前,加上适当的URL协议(如"http://"或"https://")。

修改后的代码如下所示:


  1. import re
  2. import urllib.request

  3. def find_imgs(url):
  4.     html = urllib.request.urlopen(url).read().decode('utf-8', 'ignore')
  5.     img_addrs = []
  6.     pattern = r'<img\s+src="(https?://[^"]+\.jpg)"'
  7.     img_addrs = re.findall(pattern, html)
  8.     return img_addrs

  9. url = 'http://example.com'  # 替换成你需要获取图片地址的网页URL
  10. img_urls = find_imgs(url)
  11. print(img_urls)
复制代码


请注意,这里我假设你使用的是Python 3,并进行了必要的修改:

1. `urllib.openurl()` 已修改为 `urllib.request.urlopen()`
2. `urllib.openurl().read()` 已修改为 `urllib.request.urlopen().read()`

同时,请确保你的网络连接正常,并检查所提供的URL是否正确。如果问题仍然存在,请提供更详细的错误信息或上下文,以便我能够更好地帮助你解决问题。
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2023-9-30 12:03:21 | 显示全部楼层
如果回答对你有帮助,可以给一个最佳答案吗这对我非常重要!
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2023-9-30 21:16:35 | 显示全部楼层
Mike_python小 发表于 2023-9-30 12:03
如果回答对你有帮助,可以给一个最佳答案吗这对我非常重要!

试了还是不行,还是没搞好,不知道错哪里了
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2023-10-1 02:37:24 | 显示全部楼层    本楼为最佳答案   
本帖最后由 阿奇_o 于 2023-10-1 02:46 编辑
加速星球 发表于 2023-9-30 21:16
试了还是不行,还是没搞好,不知道错哪里了


一步步来,才比较好确定哪里出错了。。
先搞定一页(第一页共60张图),建议用正则表达式来查找img(或bs4等解析后用css选择器等也行),这样更方便,比如:
  1. html = resp.decode(encoding='gb2312', errors='ignore')

  2. import re

  3. pattern = '<img src="(.*?)" alt="2023款 .*?" title="(2023款 .*?)">'
  4. imgs = re.findall(pattern, html)

  5. print(len(imgs))
  6. print(imgs)

复制代码


其次,考虑到图片较多,最后应该改为用 异步下载 的方式(aiohttp+asyncio),这个你可以自己研究一下,会让有一定难度。

最后,再解决 翻页 等问题。。


ps: 对了,正则获取到的图片的url,需要自己加上 协议名!!比如:
  1. img_urls = ['https:' + i[0] for i in imgs]  
复制代码



小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2023-10-1 21:31:16 | 显示全部楼层
阿奇_o 发表于 2023-10-1 02:37
一步步来,才比较好确定哪里出错了。。
先搞定一页(第一页共60张图),建议用正则表达式来查找img( ...

成功了,我加了协议名就搞定了!!谢谢大佬!!本来我以为浏览器不加协议名也能打开的照片地址,没想到在urlopen里面打不开,所以要加协议名
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2025-4-22 23:07

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表