yjptx121 发表于 2020-4-28 22:47:10

关于爬虫中模糊匹配的问题

先上代码:
# encoding='utf-8'
import requests
from lxml import etree
# 1,将目标网站的页面抓取下来
headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36',
    'Referer': 'https://www.baidu.com/link?url=0PXP5LpEAo5sw9eV3szzkv2pdM8sRdu2Onq3KmH0iwiD5VaokhlLh3-FktgLZRyz&wd=&eqid=af84e97900036a20000000065ea83f39',
    'Upgrade-Insecure-Requests': '1'
}
url = 'https://movie.douban.com'

response = requests.get(url, headers=headers)
text = response.text

# 2,将抓取下来的数据根据一定的规则进行提取

html = etree.HTML(text)   # 返回的是一个HTML对象

ul = html.xpath("//div")      # 模糊匹配
print(ul)

实际运行过程中,ul返回值为空列表,但是用网页的xpath却能得到数据,不知道什么原因了,请高人指教,谢谢

颜栩栩 发表于 2020-4-29 17:55:22

本帖最后由 颜栩栩 于 2020-4-29 17:58 编辑

首先来说说你查询到的结果为什么为空。其实你的代码语法写的完全没有问题,在浏览器中也能获取到信息。
只是你在html = etree.HTML(text) 这里获取到的源码,和你在浏览器上看到的源码不完全一样。
你想要的信息,豆瓣不愿意让爬虫看到呀~{:10_266:}这里我们获取的html如下图:
见附件图2
看下浏览器中原本的html,是这样的,是不是你想要的信息都在这了:
见附件图1
这部分呈现在我们视觉中的效果也就是这样的:
见附件图0


那么 你要的数据到底怎么样才能得到呢?
可以从network里看到,数据是存在这个地方的:
见附件图4
通过以下代码,获取一个dict格式的信息~{:10_297:}
import requests
import json

url = "https://movie.douban.com/j/search_subjects?type=movie&tag=%E7%83%AD%E9%97%A8&page_limit=50&page_start=0"

payload = {}
headers = {

'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.122 Safari/537.36'
}

response = requests.request("GET", url, headers=headers, data = payload)

json1 = json.loads(response.text)
print (json1['subjects']['title'])

yjptx121 发表于 2020-5-9 22:25:43

我也是后面才弄懂的,匹配不到就看源码,因为一直是自己学,经常卡在一些简单的问题上,惭愧
页: [1]
查看完整版本: 关于爬虫中模糊匹配的问题