求问,爬虫:关于网页刷新后网页代码变化问题
本帖最后由 兰竹皋 于 2020-11-12 11:57 编辑请问,在刷新浏览器后有时网页代码 expire=
会变成 e=
是为什么?
谢谢 网站的设置吧,这个baseurl应该是网站给你的,可能轮训或者别的机制生成,能用就可以。 人家网站生成的url,管它为什么干啥,能正常请求拿到你想要的数据就行了。 suchocolate 发表于 2020-11-11 21:00
网站的设置吧,这个baseurl应该是网站给你的,可能轮训或者别的机制生成,能用就可以。
可用爬虫爬取视频资源时,只有当 expires 时才能下载到视频。
不然下载地视频只有 0kb,好像是获得不到资源一样。
如此就像概率事件一样,反复重复,有时能下,有时不能。。。
请问,这又是为什么,或者改怎么办? 兰竹皋 发表于 2020-11-12 10:22
可用爬虫爬取视频资源时,只有当 expires 时才能下载到视频。
不然下载地视频只有 0kb,好像是获得不到 ...
代码发一下,一起看看。 本帖最后由 兰竹皋 于 2020-11-12 11:12 编辑
代码如下
import requests
import re
import time
def get_html(url):
return requests.get(url,headers=headers1).text
def parse(html):
video_name=re.findall('<span class="tit">(.*?)</span>',html,re.S)+'.flv'
print("正在爬取"+video_name+"...")
video_url=re.findall('window.__playinfo__={.*?"baseUrl":"(.*?)".*?}',html,re.S)
print(video_url)
return video_url,video_name
def download(videourl,video_name):
with open(video_name,'wb') as f:
f.write(requests.get(videourl,headers=headers2,stream=True,verify=False).content)
f.close()
print("视频下载完成!")
if __name__ == '__main__':
avid=input("请输入要爬取的视频id:")
base_url=f'https://www.bilibili.com/video/BV{avid}'
headers1={
'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0.3945.130 Safari/537.36',
'Host': 'www.bilibili.com',
'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9',
'Accept-Encoding':'gzip, deflate, br',
'Accept-Language':'zh-CN,zh;q=0.9',
'Cache-Control': 'max-age=0',
'Connection': 'keep-alive'
}
headers2={
'Host':'cn-jsnj3-cmcc-v-14.bilivideo.com',
'Accept-Encoding':'identity',
'Accept-Language':'zh-CN,zh;q=0.9',
'Origin':'https://www.bilibili.com',
'Referer':base_url,
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0.3945.130 Safari/537.36'
}
html=get_html(base_url)
time.sleep(0.5)
videourl,videoname=parse(html)
download(videourl,videoname)
比如输入番号:1wa4y1x7io suchocolate 发表于 2020-11-12 10:30
代码发一下,一起看看。
上面代码,我这边只有在url 为 expires时,才能下载到资源,e时好像是网络连接失败 ,得不到资源 我知道了,
当 e开头时,可以通过
headers中,指定Range来控制下载内容大小来进行下载
但,为什么?
expires与e为什么时而会相互转换? 我知道原因了
抱歉,前面headers中的host没改,所以不能直接下载
页:
[1]