|  | 
 
| 
x
马上注册,结交更多好友,享用更多功能^_^您需要 登录 才可以下载或查看,没有账号?立即注册  复制代码import requests  # 网络请求模块
import time,random      # 时间模块
import re
json_url = 'https://weibo.com/ajax/profile/info?uid=5642995337'
cookies ='填写账号ID'
# 创建RequestsCookieJar对象,用于设置cookies信息
cookies_jar = requests.cookies.RequestsCookieJar()
for cookie in cookies.split(';'):
    key, value = cookie.split('=', 1)
    cookies_jar.set(key, value)  # 将cookies保存RequestsCookieJar当中
class Crawl():
    def __init__(self):
        # 创建头部信息
        self.headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.25 Safari/537.36'}
    def get_json(self,json_url):
        response = requests.get(json_url, headers=self.headers,cookies=cookies_jar)
        name = re.findall('"screen_name":"(.*?)"',response.text)
        fensi = re.findall('"followers_count":(.*?),', response.text)
        print('用户名为:' + str(name))
        print('粉丝数量:' + str(fensi))
if __name__ == '__main__':
    c = Crawl()                # 创建爬虫类对象
    text = c.get_json(json_url)
    time.sleep(random.randint(2,4))  # 随机产生获取json请求的间隔时间'''
 
  每日一爬 | 
 |