鱼C论坛

 找回密码
 立即注册
查看: 1464|回复: 6

爬取网页问题

[复制链接]
发表于 2020-7-24 16:03:57 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
  1. import requests
  2. import bs4

  3. def open_url(url):
  4.     headers = {"user-agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.132 Safari/537.36"}
  5.     r=requests.get(url,headers=headers)
  6.     return r

  7. def find_data(soup):
  8.     div=soup.find_all('div',class_='spread-module')
  9.     for i in div:
  10.        print(i.a['href'])
  11.    

  12. def main():
  13.     game_url='https://www.bilibili.com/v/game/'
  14.     res=open_url(game_url)
  15.     soup=bs4.BeautifulSoup(res.text,'lxml')
  16.     finded_data=find_data(soup)
  17.    
  18.     '''with open('bilibiliweb.txt','w',encoding=res.encoding) as f:
  19.         f.write(res.text)'''
  20. if __name__=='__main__':
  21.     main()
复制代码


想把下图里的a标签的地址打印出来,
捕获1.PNG

结果什么都没有
捕获.PNG
求解
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

发表于 2020-7-24 16:08:35 | 显示全部楼层
'''with open('bilibiliweb.txt','w',encoding=res.encoding) as f:
        f.write(res.text)'''
为什么要加三引号?
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2020-7-24 16:11:06 | 显示全部楼层
Marcus-Liu 发表于 2020-7-24 16:08
'''with open('bilibiliweb.txt','w',encoding=res.encoding) as f:
        f.write(res.text)'''
为什 ...

注释起来,待会用
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-7-24 16:30:24 | 显示全部楼层
你爬取的网页是经过 .js 渲染后生成的数据,推荐使用 selenium 模块渲染后在进行爬取。
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-7-24 16:31:52 | 显示全部楼层
我这有selenium 模块使用的例子,如有需要请参照:


  1. import urllib.request
  2. import re
  3. from selenium import webdriver
  4. from selenium.webdriver import ChromeOptions
  5. def search(music=None,singer=None):
  6.     if not music and not singer:
  7.         raise ValueError('参数错误!!')
  8.    
  9.     if not music:
  10.         name = singer
  11.     else:
  12.         name = music
  13.    
  14.       # 创建参数设置对象.
  15.     CLOUD_CHROME_OPTION = ChromeOptions()
  16.     CLOUD_CHROME_OPTION.binary_location = '.\\plug-in\\Google\\Chrome\\Application\\chrome.exe'
  17. #    chrome_opt.add_argument('--headless')   # 无界面化.
  18. #    chrome_opt.add_argument('--disable-gpu')    # 配合上面的无界面化.

  19.     driver = webdriver.Chrome(options = CLOUD_CHROME_OPTION,executable_path=r'chromedriver.exe')
  20.     driver.get('https://music.163.com/#/search/m/?s=' + name)
  21.     driver.switch_to.frame('g_iframe')
  22.     music_list = re.findall(r'<a href="/song\?id=(\d*)"><b title="(.*?)">',driver.page_source)
  23.     singer_list = re.findall(r'<a href="/artist\?id=\d*">(.*?)</a>',driver.page_source)
  24. #     driver.quit()
  25.     music_num = len(music_list)
  26.     download_list = list()
  27.     if singer:
  28.         for i in range(music_num):
  29.             if singer in singer_list[i]:
  30.                 download_list.append(music_list[i]+(singer_list[i],))
  31.     else:
  32.         for i in range(music_num):
  33.             download_list.append(music_list[i]+(singer_list[i],))
  34.             
  35.     print(download_list)
  36.         
  37.     down_load_sign = input(r'开始下载吗?[Y\N]:')
  38.     if down_load_sign == 'Y':
  39.         for each_music in download_list:
  40.             print(f'{each_music[1]}-{each_music[2]}.mp3正在下载!')
  41.             urllib.request.urlretrieve(f'http://music.163.com/song/media/outer/url?id={each_music[0]}.mp3',f'C:\\CLOUD Artification Intelligence\\clouddata\\Sound\\{each_music[1]}-{each_music[2]}.mp3')
  42.             print(f'{each_music[1]}-{each_music[2]}.mp3下载完成!')
  43.         
  44.             

  45. if __name__ == '__main__':
  46.     while True:
  47. #         music_name = input('请输入歌曲名:')
  48. #         singer_name = input('请输入歌手名:')
  49.         music_name = '大鱼'
  50.         singer_name = ''
  51.         search(music_name,singer_name)
复制代码
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-7-24 16:50:47 | 显示全部楼层
  1. import requests
  2. import re
  3. headers = {
  4.     "user-agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.132 Safari/537.36",
  5.     "referer":"https://www.bilibili.com/v/game/"
  6. }
  7. url = "https://api.bilibili.com/x/web-interface/dynamic/region?callback=jqueryCallback_bili_4729731045039791&jsonp=jsonp&ps=10&rid=17&_=1595579753063"
  8. data = {
  9.     "callback":"jqueryCallback_bili_4729731045039791",
  10.     "jsonp":"jsonp",
  11.     "ps":"10",
  12.     "rid":"17",
  13.     "&_":"1595579753063"
  14. }
  15. res = requests.get(url,headers=headers,data=data).text
复制代码


之后自己去看看json模块
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2020-7-24 17:36:18 | 显示全部楼层
xiaosi4081 发表于 2020-7-24 16:50
之后自己去看看json模块

这个有点难啊,能解释一下原理吗
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2025-6-24 04:40

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表