鱼C论坛

 找回密码
 立即注册
查看: 2921|回复: 7

unresolved import

[复制链接]
发表于 2019-11-7 16:05:42 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
在VS code2019中抄写了那个下载妹子图的爬虫程序,
但是出现了
unresolved import 'request'
unresolved import'bs4'
两个警告,导致并不能实现效果。
在网上查了一下解决办法,却找不到launch.json.
我想从爬虫学起来学python,开门就被卡住了
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

发表于 2019-11-7 17:51:20 | 显示全部楼层
代码?
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

发表于 2019-11-7 19:22:47 From FishC Mobile | 显示全部楼层
import requests
from bs4 import BeautifulSoup
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2019-11-7 19:53:44 | 显示全部楼层
不是先学py基础再到py爬虫的么?
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2019-11-7 21:28:37 | 显示全部楼层
  1. # 爬取妹子图
  2. import requests
  3. from bs4 import BeautifulSoup
  4. import time
  5. # 得到每个页面的链接
  6. def get_url():
  7.     for i in range(1,51):
  8.         url = 'http://www.mzitu.com/116519/' + str(i)  #基本上这个图片网站都可以以这种形式下载,所有是半自动,图片的网址你需要自己输入,就看你喜欢哪种类型
  9.         yield url
  10. # 得到妹子图片的链接
  11. def get_girl_url(url_list):
  12.     for url in url_list:
  13.         headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.108 Safari/537.36',
  14.                    'Referer': 'http://wwww.mzitu.com'}
  15.         res = requests.get(url,headers=headers)
  16.         html = res.text
  17.         soup = BeautifulSoup(html,'lxml')
  18.         img_url = soup.find(class_='main-image').find('img').get('src')
  19.         yield img_url
  20. # 存储妹子图片到本地
  21. def save_img(img_url_list):
  22.     for img_url in img_url_list:
  23.         Picreferer = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.108 Safari/537.36',
  24.                       'Referer':'http://i.meizitu.net'}  #加Referer属性是防止盗链图的产生,目的是告诉服务器当前请求是从哪个页面请求过来的
  25.         res = requests.get(img_url,headers=Picreferer)
  26.         html = res.content
  27.         filename =  'C:/Users/HP/Desktop/learn_test/MM/' + img_url.split('/')[-1] #这里保存文件路径请依据自己的电脑位置来存放
  28.         with open(filename,'wb') as f:
  29.             f.write(html)

  30. list1 = get_url()
  31. list2 = get_girl_url(list1)
  32. save_img(list2)
复制代码

代码不是我写的,是我抄的 [作品展示] 【18禁】自动爬取妹子图爬虫中的代码
如果要取代码,还请去帖子回复一句。
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2019-11-7 21:29:20 | 显示全部楼层
geen 发表于 2019-11-7 19:53
不是先学py基础再到py爬虫的么?

我想先回技能再深入理解原理。
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2019-11-7 21:30:41 | 显示全部楼层
wp231957 发表于 2019-11-7 19:22
import requests
from bs4 import BeautifulSoup

代码我发出来了,就是你这么写的,但是我那里还是出现上述问题。
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2019-11-7 21:31:37 | 显示全部楼层

已发出。
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2025-12-6 09:57

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表