鱼C论坛

 找回密码
 立即注册
查看: 1020|回复: 20

[已解决]新手小白学习爬虫,请求大佬指教一下

[复制链接]
发表于 2023-4-23 10:38:23 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
想爬取链家网站上的房源信息,返回值为空,请求大佬解答一下问题,谢谢

代码如下:
import requests
from bs4 import BeautifulSoup

headers = {
    'user-agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36'
    }
url = 'https://sh.lianjia.com/ershoufang/'
res = requests.get(url, headers=headers).text
content = BeautifulSoup(res, "html.parser")
data = content.find_all('li', attrs={'a': 'title'})
house_list = []
for d in data:
    plist = d.find('a')['title']
    house_list.append(plist)
print(house_list)


输出值为:
E:\anaconda3\python.exe C:/Users/lyl/PycharmProjects/pythonProject1/dangdang/dangdang/spiders/lj.py
[]

Process finished with exit code 0

为何返回值为[]?麻烦解答一下,万分感谢~~
最佳答案
2023-4-25 20:42:20
可能的问题可能是网站使用了反爬虫机制,阻止了你的请求。可以尝试以下方法:

1. 检查URL是否正确。确保URL与实际要爬取的页面相符合。
2. 检查headers是否正确。如果headers被反爬虫系统检测到,则请求将被拒绝或返回错误内容。建议根据网站的实际情况进行修改。
3. 使用Selenium等自动化测试工具模拟真实的浏览器环境,这有助于模仿人类访问行为并规避反爬虫机制。
4. 要注意爬取频率不要过高,以免被服务器拉黑。

你可以在程序中添加一些异常捕获操作,看看是否有什么报错信息:
res = requests.get(url, headers=headers)
if res.status_code == 200:
    content = BeautifulSoup(res.text, "html.parser")
    data = content.find_all('li', attrs={'a': 'title'})
    # 省略其他代码
else:
    print(f'Request failed with status code {res.status_code}')
这样就能判断请求是否成功,并输出对应的状态码,方便定位问题。

另外,通过抓包分析请求和响应也是解决问题的好方法。
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2023-4-23 11:01:27 | 显示全部楼层
肯定是你获取元素不对所以获取不到,不明白你要获取什么,我给你改了一下代码,你看看是不是你想要的
import requests
from bs4 import BeautifulSoup

headers = {
    'user-agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36'
    }
url = 'https://sh.lianjia.com/ershoufang/'
res = requests.get(url, headers=headers).text
content = BeautifulSoup(res, "html.parser")
data = content.select('#content > div.leftContent > ul > li > div.info.clear > div.title > a')
house_list = []
for d in data:
    plist = d.text
    house_list.append(plist)
print(house_list)
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2023-4-23 11:55:22 | 显示全部楼层
isdkz 发表于 2023-4-23 11:01
肯定是你获取元素不对所以获取不到,不明白你要获取什么,我给你改了一下代码,你看看是不是你想要的

我想要获取房源信息标题吧
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2023-4-23 12:00:14 | 显示全部楼层
liubulong 发表于 2023-4-23 11:55
我想要获取房源信息标题吧

我给你的代码就可以获取到
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2023-4-23 14:13:22 | 显示全部楼层
isdkz 发表于 2023-4-23 12:00
我给你的代码就可以获取到

我执行了,但是返回还是空值,不知道为何?
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2023-4-23 14:16:10 | 显示全部楼层
liubulong 发表于 2023-4-23 14:13
我执行了,但是返回还是空值,不知道为何?

[b]可能是你爬取太多次被禁了,你可以换个网络,或者过会儿再试,你先在浏览器打开看看就知道是不是被禁了[/b]
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2023-4-23 14:22:10 | 显示全部楼层
isdkz 发表于 2023-4-23 14:16
可能是你爬取太多次被禁了,你可以换个网络,或者过会儿再试,你先在浏览器打开看看就知道是不是被禁了

浏览器可以访问的,我可以打开看的
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2023-4-23 14:24:46 | 显示全部楼层
liubulong 发表于 2023-4-23 14:22
浏览器可以访问的,我可以打开看的


那不应该呀,我可以执行出结果,是不是你没有用我的代码?你放个截图来看看

1682231038791.png
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2023-4-23 14:40:34 | 显示全部楼层
isdkz 发表于 2023-4-23 14:24
那不应该呀,我可以执行出结果,是不是你没有用我的代码?你放个截图来看看

代码如下:
import requests
from bs4 import BeautifulSoup

headers = {
    'user-agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36'
    }
url = 'https://sh.lianjia.com/ershoufang/'
res = requests.get(url, headers=headers).text
content = BeautifulSoup(res, "html.parser")
data = content.select('#content > div.leftContent > ul > li > div.info.clear > div.title > a')
house_list = []
for d in data:
    plist = d.text
    house_list.append(plist)
print(house_list)

想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2023-4-23 17:09:27 | 显示全部楼层
isdkz 发表于 2023-4-23 14:24
那不应该呀,我可以执行出结果,是不是你没有用我的代码?你放个截图来看看

麻烦你看一下我的代码,我执行结果是空的

代码如下:
import requests
from bs4 import BeautifulSoup

headers = {
    'user-agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36'
    }
url = 'https://sh.lianjia.com/ershoufang/'
res = requests.get(url, headers=headers).text
content = BeautifulSoup(res, "html.parser")
data = content.select('#content > div.leftContent > ul > li > div.info.clear > div.title > a')
house_list = []
for d in data:
    plist = d.text
    house_list.append(plist)
print(house_list)

结果如图所示:
1111捕获.PNG
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2023-4-23 17:10:34 | 显示全部楼层
liubulong 发表于 2023-4-23 17:09
麻烦你看一下我的代码,我执行结果是空的

代码如下:

你用的是pychram?
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2023-4-23 17:13:26 | 显示全部楼层
liubulong 发表于 2023-4-23 17:09
麻烦你看一下我的代码,我执行结果是空的

代码如下:

我这里没有问题,你执行这个截图给我看看:
import requests
from bs4 import BeautifulSoup

headers = {
    'user-agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36'
    }
url = 'https://sh.lianjia.com/ershoufang/'
res = requests.get(url, headers=headers)
print(res.status_code)
content = BeautifulSoup(res.text, "html.parser")
data = content.select('#content > div.leftContent > ul > li > div.info.clear > div.title > a')
house_list = []
for d in data:
    plist = d.text
    house_list.append(plist)
print(house_list)
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2023-4-23 17:16:51 | 显示全部楼层
isdkz 发表于 2023-4-23 17:10
你用的是pychram?

是的,用pycharm写的
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2023-4-23 17:19:09 | 显示全部楼层
isdkz 发表于 2023-4-23 17:13
我这里没有问题,你执行这个截图给我看看:

还是不行,返回为空值,我截图发你看一下,谢谢

22222捕获.PNG
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2023-4-23 17:22:00 | 显示全部楼层
liubulong 发表于 2023-4-23 17:19
还是不行,返回为空值,我截图发你看一下,谢谢

奇怪了,感觉你是被限制了,可是状态码又没有问题,我这里执行是 ok 的

uTools_1682241647118.png

你打印获取到的源码出来看看
import requests
from bs4 import BeautifulSoup

headers = {
    'user-agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36'
    }
url = 'https://sh.lianjia.com/ershoufang/'
res = requests.get(url, headers=headers)
print(res.text)
content = BeautifulSoup(res.text, "html.parser")
data = content.select('#content > div.leftContent > ul > li > div.info.clear > div.title > a')
house_list = []
for d in data:
    plist = d.text
    house_list.append(plist)
print(house_list)
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2023-4-23 17:49:15 | 显示全部楼层
isdkz 发表于 2023-4-23 17:22
奇怪了,感觉你是被限制了,可是状态码又没有问题,我这里执行是 ok 的

能够返回网页源码的,你看一下截图

444捕获.PNG


666捕获.PNG
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2023-4-25 20:42:20 | 显示全部楼层    本楼为最佳答案   
可能的问题可能是网站使用了反爬虫机制,阻止了你的请求。可以尝试以下方法:

1. 检查URL是否正确。确保URL与实际要爬取的页面相符合。
2. 检查headers是否正确。如果headers被反爬虫系统检测到,则请求将被拒绝或返回错误内容。建议根据网站的实际情况进行修改。
3. 使用Selenium等自动化测试工具模拟真实的浏览器环境,这有助于模仿人类访问行为并规避反爬虫机制。
4. 要注意爬取频率不要过高,以免被服务器拉黑。

你可以在程序中添加一些异常捕获操作,看看是否有什么报错信息:
res = requests.get(url, headers=headers)
if res.status_code == 200:
    content = BeautifulSoup(res.text, "html.parser")
    data = content.find_all('li', attrs={'a': 'title'})
    # 省略其他代码
else:
    print(f'Request failed with status code {res.status_code}')
这样就能判断请求是否成功,并输出对应的状态码,方便定位问题。

另外,通过抓包分析请求和响应也是解决问题的好方法。
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2023-4-26 09:37:58 | 显示全部楼层
sfqxx 发表于 2023-4-25 20:42
可能的问题可能是网站使用了反爬虫机制,阻止了你的请求。可以尝试以下方法:

1. 检查URL是否正确。确保 ...

好的,知道了,谢谢大佬帮助
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2023-4-26 17:25:20 From FishC Mobile | 显示全部楼层
liubulong 发表于 2023-4-26 09:37
好的,知道了,谢谢大佬帮助

给我个最佳吧
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2023-4-26 17:26:57 | 显示全部楼层

嗯,好的,谢谢
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2024-11-24 18:01

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表