鱼C论坛

 找回密码
 立即注册
查看: 669|回复: 2

爬虫照片保存问题

[复制链接]
发表于 2018-8-23 21:20:45 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
  1. import requests
  2. from bs4 import BeautifulSoup
  3. import os
  4. os.mkdir('qiche')
  5. os.chdir('qiche')
  6. count=0
  7. response=requests.get('https://www.autohome.com.cn/all/#pvareaid=3311229')
  8. response.encoding='gbk'
  9. soup=BeautifulSoup(response.text,'html.parser')
  10. li_list=soup.find(id='auto-channel-lazyload-article').find_all(name='li')
  11. for li in li_list:
  12.     title=li.find('h3')
  13.     if not title:
  14.         continue
  15.     summary=li.find('p').text
  16.     addres='http:'+str(li.find('a').get('href'))
  17.     img='http:'+str(li.find('img').get('src'))
  18.     res=requests.get(img)
  19.     file_name=str(count)+'.jpg'
  20.     with open(file_name,'wb') as f:
  21.         f.write(res.content)
  22.         count+=1
复制代码


请教下大神 我这里已经找到图片的地址 img 了 但是我用上面的方法保存都是字节 显然应该是不对的
求大神指点下我该怎么做
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

发表于 2018-8-23 23:36:46 | 显示全部楼层
  1. import urllib
  2. urllib.urlretrieve(url, img_name)
复制代码
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2018-8-23 23:54:28 | 显示全部楼层

                               
登录/注册后可看大图


我这里没问题,是不是你的IP被禁了
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2025-10-30 04:19

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表