|
马上注册,结交更多好友,享用更多功能^_^
您需要 登录 才可以下载或查看,没有账号?立即注册
x
想爬取链家网站上的房源信息,返回值为空,请求大佬解答一下问题,谢谢
代码如下:
import requests
from bs4 import BeautifulSoup
headers = {
'user-agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36'
}
url = 'https://sh.lianjia.com/ershoufang/'
res = requests.get(url, headers=headers).text
content = BeautifulSoup(res, "html.parser")
data = content.find_all('li', attrs={'a': 'title'})
house_list = []
for d in data:
plist = d.find('a')['title']
house_list.append(plist)
print(house_list)
输出值为:
E:\anaconda3\python.exe C:/Users/lyl/PycharmProjects/pythonProject1/dangdang/dangdang/spiders/lj.py
[]
Process finished with exit code 0
为何返回值为[]?麻烦解答一下,万分感谢~~
可能的问题可能是网站使用了反爬虫机制,阻止了你的请求。可以尝试以下方法:
1. 检查URL是否正确。确保URL与实际要爬取的页面相符合。
2. 检查headers是否正确。如果headers被反爬虫系统检测到,则请求将被拒绝或返回错误内容。建议根据网站的实际情况进行修改。
3. 使用Selenium等自动化测试工具模拟真实的浏览器环境,这有助于模仿人类访问行为并规避反爬虫机制。
4. 要注意爬取频率不要过高,以免被服务器拉黑。
你可以在程序中添加一些异常捕获操作,看看是否有什么报错信息:res = requests.get(url, headers=headers)
if res.status_code == 200:
content = BeautifulSoup(res.text, "html.parser")
data = content.find_all('li', attrs={'a': 'title'})
# 省略其他代码
else:
print(f'Request failed with status code {res.status_code}')
这样就能判断请求是否成功,并输出对应的状态码,方便定位问题。
另外,通过抓包分析请求和响应也是解决问题的好方法。
|
|