17856563101 发表于 2022-9-1 17:51:25

爬虫的一个问题

import urllib.request
import urllib.parse
url = "https://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule"
data = {}

data['i']= "i love WangXinrui"
data['from'] = 'AUTO'
data['to'] ='AUTO'
data['smartresult']= 'dict'
data['client']= 'fanyideskweb'
data['salt']= '16620238881651'
data['sign']= '11dbbe2026daa8437f36fa56f8dcc5a0'
data['lts']='1662023888165'
data['bv']='50b61ff102560ebc7bb0148b22d7715c'
data['doctype']='json'
data['version']= '2.1'
data['keyfrom']='fanyi.web'
data['action']='FY_BY_REALTlME'

data=urllib.parse.urlencode(data).encode('utf-8')
response =urllib.request.urlopen(url,data)
html = response.read().decode('utf-8')

print(html)
那个_o 已经去掉了 为什么还是会出错 求个大佬解释一下{:10_263:}

Twilight6 发表于 2022-9-1 17:51:26

17856563101 发表于 2022-9-1 18:54
大佬你看一下,我的整个流程就是这样的


你截图的代码文件是 test4,但是你执行的是 test5

按照我楼上操作,执行test4 即可

Twilight6 发表于 2022-9-1 17:57:31


500 可能是你data参数列表中有参数错误了,但是我试着执行是没问题的,你重新试试看?

import urllib.request
import urllib.parse

url = "https://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule"
data = {}

data['i'] = "i love WangXinrui"
data['from'] = 'AUTO'
data['to'] = 'AUTO'
data['smartresult'] = 'dict'
data['client'] = 'fanyideskweb'
data['salt'] = '16620238881651'
data['sign'] = '11dbbe2026daa8437f36fa56f8dcc5a0'
data['lts'] = '1662023888165'
data['bv'] = '50b61ff102560ebc7bb0148b22d7715c'
data['doctype'] = 'json'
data['version'] = '2.1'
data['keyfrom'] = 'fanyi.web'
data['action'] = 'FY_BY_REALTlME'

data = urllib.parse.urlencode(data).encode('utf-8')
response = urllib.request.urlopen(url, data)
html = response.read().decode('utf-8')

print(html)




17856563101 发表于 2022-9-1 17:59:11

Twilight6 发表于 2022-9-1 17:57
500 可能是你data参数列表中有参数错误了,但是我试着执行是没问题的,你重新试试看?

好的,我去试试看

17856563101 发表于 2022-9-1 18:08:25

Twilight6 发表于 2022-9-1 17:57
500 可能是你data参数列表中有参数错误了,但是我试着执行是没问题的,你重新试试看?

还是不行{:10_263:}
怎么查找这个data的参数错没错呀

Twilight6 发表于 2022-9-1 18:18:38

17856563101 发表于 2022-9-1 18:08
还是不行
怎么查找这个data的参数错没错呀



你是不是执行错代码了,点击你要执行的代码,按下 Ctrl + Shift + F10

17856563101 发表于 2022-9-1 18:54:16

大佬你看一下,我的整个流程就是这样的
页: [1]
查看完整版本: 爬虫的一个问题