鱼C论坛

 找回密码
 立即注册
查看: 2818|回复: 3

Python爬虫-抖音用户信息

[复制链接]
发表于 2020-11-3 09:54:36 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x

  1. import requests
  2. from bs4 import BeautifulSoup as bs
  3. import urllib3
  4. urllib3.disable_warnings(urllib3.exceptions.InsecureRequestWarning)

  5. id = '64990944'
  6. change = {('\ue602','\ue60E','\ue618'):'1',
  7.           ('\ue603','\ue60d','\ue616'):'0',
  8.           ('\ue604','\ue611','\ue61a'):'3',
  9.           ('\ue605','\ue610','\ue617'):'2',
  10.           ('\ue606','\ue60c','\ue619'):'4',
  11.           ('\ue607','\ue60f','\ue61b'):'5',
  12.           ('\ue608','\ue612','\ue61f'):'6',
  13.           ('\ue609','\ue615','\ue61e'):'9',
  14.           ('\ue60a','\ue613','\ue61c'):'7',
  15.           ('\ue60b','\ue614','\ue61d'):'8'}

  16. #将爬到的单个编码放到这个函数会返回对应的数字
  17. def change_2_num(code):
  18.     for i in change:
  19.         try:
  20.             if code.split()[0] in i:
  21.                 return change[i]
  22.         except:
  23.             print('函数change_2_num出错',code.split())
  24.     return code

  25. #请求链接,返回soup对象
  26. def get_html(id):
  27.     url = 'https://www.iesdouyin.com/share/user/'+id
  28.     print(url)
  29.     headers = {"user-agent":"Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/39.0.2171.95 Safari/537.36 OPR/26.0.1656.60"}
  30.     r = requests.get(url,headers=headers,verify=False)
  31.     if not len(r.text)>10000:
  32.         return
  33.     soup = bs(r.text,'lxml')
  34.     return soup


  35. def get_num(name,attrs):
  36.     fin = ''
  37.     res = soup.find_all(name=name,attrs={'class':attrs})
  38.     if res:
  39.         mid = res[0].text.split()
  40.         #将获取的文本以空格切成列表,不切的话因为空格的存在会返回''而不是uincode编码
  41.     else:
  42.         return
  43.     for code in mid:
  44.         fin+=change_2_num(code)
  45.         #遍历文本内容,如果是unicode编码则返回对应数字
  46.     print(fin)
  47.     return fin

  48. soup = ''
  49. def main():
  50.     global soup
  51.     soup = get_html(id)
  52.     if not soup:
  53.         return
  54.     try:
  55.         nickname = soup.find(name='p',attrs={'class':'nickname'}).string
  56.         print(nickname )
  57.         signature = soup.find(name='p',attrs={'class':'signature'}).string
  58.         print(signature)
  59.         dyID = get_num('p',"shortid").replace('抖音ID:','')
  60.         focus = get_num('span',"focus").replace('关注','')
  61.         follower = get_num('span',"follower").replace('粉丝','')
  62.         liked = get_num('span',"liked-num").replace('赞','')
  63.         works = get_num('div',"user-tab").replace('作品','')
  64.         like = get_num('div',"like-tab").replace('喜欢','')
  65.     except:
  66.         return

  67. main()
复制代码
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

 楼主| 发表于 2020-11-3 09:55:49 | 显示全部楼层
没有东西爬出来,希望大佬们给下意见改进
https://www.iesdouyin.com/share/ ... are_app_name=douyin
这个是现在抖音的url
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2020-11-3 09:57:44 | 显示全部楼层
感觉主要是url那里
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-11-5 15:02:38 | 显示全部楼层
你需要的这些信息不是在html结构中,根据你上面给的url,找到包含关注、粉丝等信息的接口是这个:https://www.iesdouyin.com/web/ap ... Sf54jeSlXcSm1qFHZw0,请求这个接口就能得到你想要的信息,其中sec_uid参数是获取信息的关键参数。
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2025-6-29 04:07

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表