帅周 发表于 2021-4-18 14:53:53

爬虫问题

一个写入b站评论的程序:

import urllib.request as r
import urllib.parse as p
import json as j

def ping(x):
    url = 'https://api.bilibili.com/x/v2/reply/add'#一个b站的写入评论网站
    data = {}
    proxy_support = r.ProxyHandler({'https':'183.242.14.130'})#ip
    opener = r.build_opener(proxy_support)
    opener.addheaders = [('User-Agent','Mozilla/5.0 (X11; Ubuntu; Linux x86_64; rv:87.0) Gecko/20100101 Firefox/87.0')]
    r.install_opener(opener)
   
    data['oid']="930233552"
    data['type']="1"
    data['message']=x#x就是ping(x)里的x
    data['plat']="1"
    data['ordering']="heat"
    data['jsonp']="jsonp"
    data['csrf']="4da0ff11ae39439214ad12c2c64dfd93"
   
    data = p.urlencode(data).encode('utf-8')
    resphonse = r.urlopen(url,data)
    html = resphonse.read().decode('utf-8')
    htmlx = j.loads(html)
    print(htmlx)#检验是否写入


错误:
urllib.error.URLError: <urlopen error Connection timed out>

nahongyan1997 发表于 2021-6-23 16:31:02

连接超时,在执行一次就好了,如果还不行就在执行一次
页: [1]
查看完整版本: 爬虫问题