鱼C论坛

 找回密码
 立即注册
查看: 1205|回复: 8

[已解决]爬取酷我音乐时遇到的问题

[复制链接]
发表于 2020-8-10 19:33:45 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
  在我爬取酷我音乐时,想返回搜索得到的歌曲名,但不会用好find_all,想问一下大佬们

<div data-v-78d8daf1 class="song_name flex_c">

其中的data-v-78d8daf1怎么弄
最佳答案
2020-8-10 20:38:15
凌绝顶 发表于 2020-8-10 19:45
import requests
import bs4
res = requests.get('http://www.kuwo.cn/search/list?key=绿色')

用requests库爬取不现实,网页生成受到js控制,关闭js后网页截图如下


                               
登录/注册后可看大图


2020-8-10 20-35-58.png

推荐用selenium动态爬取,或者直接爬数据包
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2020-8-10 19:35:59 | 显示全部楼层
把你的代码发下看看
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-8-10 19:40:06 | 显示全部楼层
有时候在审查元素中看到的代码并不是真正的网页源代码
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-8-10 19:40:29 | 显示全部楼层
import re
str1='<div data-v-78d8daf1 class="song_name flex_c">'
song=re.findall(r'\<div\s(.*)\sclass',str1)[0]
print(song)
输出结果
data-v-78d8daf1
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2020-8-10 19:42:47 | 显示全部楼层
Twilight6 发表于 2020-8-10 19:35
把你的代码发下看看
import requests
import bs4
res = requests.get('http://www.kuwo.cn/search/list?key=绿色')
soup = bs4.BeautifulSoup(res.text,"html.parser")
titles = soup.find_all('div',data-v-78d8daf1 = '',class_='song_name flex_c')
for each in titles:
    print(eash.span['title'])
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2020-8-10 19:44:28 | 显示全部楼层
Twilight6 发表于 2020-8-10 19:35
把你的代码发下看看
import requests
import bs4
res = requests.get('http://www.kuwo.cn/search/list?key=绿色')
soup = bs4.BeautifulSoup(res.text,"html.parser")
titles = soup.find_all('div',data-v-78d8daf1 = '',class_='song_name flex_c')
for each in titles:
    print(eash.span['title'])
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2020-8-10 19:45:00 | 显示全部楼层
zltzlt 发表于 2020-8-10 19:40
有时候在审查元素中看到的代码并不是真正的网页源代码

那我应该怎么办呢
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2020-8-10 19:45:31 | 显示全部楼层
Twilight6 发表于 2020-8-10 19:35
把你的代码发下看看

import requests
import bs4
res = requests.get('http://www.kuwo.cn/search/list?key=绿色')
soup = bs4.BeautifulSoup(res.text,"html.parser")
titles = soup.find_all('div',data-v-78d8daf1 = '',class_='song_name flex_c')
for each in titles:
    print(eash.span['title'])
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-8-10 20:38:15 | 显示全部楼层    本楼为最佳答案   
凌绝顶 发表于 2020-8-10 19:45
import requests
import bs4
res = requests.get('http://www.kuwo.cn/search/list?key=绿色')

用requests库爬取不现实,网页生成受到js控制,关闭js后网页截图如下


                               
登录/注册后可看大图


2020-8-10 20-35-58.png

推荐用selenium动态爬取,或者直接爬数据包
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2025-1-19 11:15

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表