鱼C论坛

 找回密码
 立即注册
查看: 2232|回复: 6

爬虫爬豆瓣top250为啥print不出来?

[复制链接]
发表于 2020-1-31 15:24:18 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
  1. import requests
  2. import bs4
  3. res = requests.get('http://movie.douban.com/top250')
  4. soup = bs4.BeautifulSoup(res.text,'html.parser')
  5. targets = soup.find_all('div',class_='hd')
  6. for each in targets:
  7.     print(each.a.span.text)

复制代码

这是跟着视频弄的代码
  1. ====================== RESTART: C:/Users/玄易安/Desktop/爬虫.py =====================
  2. >>>
复制代码

这是运行结果
咋回事啊?懵逼,求助大佬
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

发表于 2020-1-31 16:48:40 From FishC Mobile | 显示全部楼层
没头(headers)
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2020-1-31 19:15:08 | 显示全部楼层

那该咋办嘞
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-1-31 19:26:05 From FishC Mobile | 显示全部楼层
玄易安 发表于 2020-1-31 19:15
那该咋办嘞

查一下豆瓣的头,填上
或者网上搜一下,大部分头都是通用的
在get.url里面填上headers=headers
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-2-1 13:25:12 | 显示全部楼层
估计现在各大网站对爬虫比较不友好,加个头和ip 试试
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-2-5 12:58:53 | 显示全部楼层
  1. import requests
  2. import bs4
  3. headers = {'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/57.0.2987.98 Safari/537.36'}
  4. res = requests.get('http://movie.douban.com/top250', headers=headers)
复制代码


这样加个头,他就能访问了,不加头被服务器看到不是正常访问所以拒绝了你,改头换脸了服务器就放行了的
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-2-5 13:07:46 | 显示全部楼层
学习了。。。。。。。。。
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2026-1-22 01:08

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表