qin_yin 发表于 2020-11-22 01:06:13

爬虫urllib.parse问题

import urllib.request
import urllib.parse
import json

url = ' http://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule'
data = {'i':'save',
'from': 'AUTO',
'to': 'AUTO',
'smartresult': 'dict',
'client': 'fanyideskweb',
'salt': '16059750764981',
'sign': 'b5f19f077faa2842bb9f64bb814a67da',
'lts': '1605975076498',
'bv': '0785986963146aebf8c240a24088d066',
'doctype': 'json',
'version': '2.1',
'keyfrom': 'fanyi.web',
'action': 'FY_BY_REALTlME'}

data = urllib.parse.urlencode(data).encode('utf-8')
response = urllib.request.urlopen(url,data)
result = response.read().decode('utf-8')

请问data参数为什么必须要经过urllib.parse.urlencode(data)函数之后才能赋值给urlopen()函数 ,小甲鱼说的不是很深入,不太理解
encode()函数和decode函数起到什么作用,

YunGuo 发表于 2020-11-22 01:53:49

还搁这学urllib呢,urllib了解了就行,请求库还是去学requests吧。
urllib.parse.urlencode()是对字典编码,转了后变成这样的格式key=value&key=value,也就是将key和value拼接,encode()的作用是编码,decode()是解码。
页: [1]
查看完整版本: 爬虫urllib.parse问题