|
发表于 2024-4-5 19:27:01
|
显示全部楼层
当然可以帮你写一个爬取腾讯视频的代码。首先,我们需要安装requests库和BeautifulSoup库。可以使用以下命令进行安装:
- pip install requests
- pip install beautifulsoup4
复制代码
接下来,请尝试以下代码:
- import requests
- from bs4 import BeautifulSoup
- def get_video_url(name):
- # 构造搜索链接
- search_url = f'https://v.qq.com/x/search/?q={name}'
-
- # 发送搜索请求
- response = requests.get(search_url)
- response.encoding = 'utf-8'
-
- # 使用BeautifulSoup解析搜索结果页面
- soup = BeautifulSoup(response.text, 'html.parser')
-
- # 获取第一个搜索结果的链接
- video_url = soup.select('.result_item a')[0]['href']
-
- return video_url
- def get_episode_urls(video_url):
- # 发送视频链接请求
- response = requests.get(video_url)
- response.encoding = 'utf-8'
-
- # 使用BeautifulSoup解析视频页面
- soup = BeautifulSoup(response.text, 'html.parser')
-
- # 获取每一集的链接和标题
- episodes = []
- for item in soup.select('.item'):
- title = item.select('.title')[0].text
- url = item.select('a')[0]['href']
- episodes.append((title, url))
-
- return episodes
- def save_urls_to_file(urls):
- with open('urls.txt', 'w', encoding='utf-8') as f:
- for title, url in urls:
- f.write(f'{title}: {url}\n')
- def main():
- name = input('请输入要搜索的电影或电视剧名:')
- video_url = get_video_url(name)
- episode_urls = get_episode_urls(video_url)
- save_urls_to_file(episode_urls)
- print('链接已保存到本地文件urls.txt')
- if __name__ == '__main__':
- main()
复制代码
这段代码首先通过用户输入构造了一个搜索链接,并发送请求获取搜索结果页面。然后使用BeautifulSoup从页面中解析出第一个搜索结果的链接。
接下来,我们根据视频链接发送请求,得到视频页面,并用BeautifulSoup解析页面中每一集的链接和标题。
最后将获取到的链接保存到本地的`urls.txt`文件中。
以上回复来自 FishC AI 小助理,如未能正确解答您的问题,请继续追问。 |
|