鱼C论坛

 找回密码
 立即注册
查看: 1606|回复: 2

[已解决]关于爬取有道最后显示error code:50的问题

[复制链接]
发表于 2020-9-21 21:44:40 | 显示全部楼层 |阅读模式
1鱼币

我想问一下,这个爬取网易有道词典的时候,最后输出是一个 error code:50
我是不是在那里爬取数据的时候出来问题?

源代码如下:

import urllib.request
import urllib.parse

url = "http://fanyi.youdao.com/translate_o?smartresult=dict&smartresult=rule"

date = {}

date['i'] = 'I love'
date['from']= 'AUTO'
date['to']= 'AUTO'
date['smartresult'] = 'dict'
date['client'] = 'fanyideskweb'
date['salt'] ='16006938600377'
date['sign']= '3ad24abcb708e97a655860210c3bfe0a'
date['lts'] ='1600693860037'
date['bv'] =' e9c283fcdef47746c8a8c8d0ed42d0ce'
date['doctype'] = 'json'
date['version'] = '2.1'
date['keyfrom'] = 'anyi.web'
date['action'] = 'FY_BY_CLICKBUTTION'
data = urllib.parse.urlencode(date).encode('utf-8')

response = urllib.request.urlopen(url,data)

html = response.read().decode('utf-8')

print(html)
最佳答案
2020-9-21 21:44:41
把url中的_o去掉就可以了,这好像是反爬虫的问题

最佳答案

查看完整内容

把url中的_o去掉就可以了,这好像是反爬虫的问题
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2020-9-21 21:44:41 | 显示全部楼层    本楼为最佳答案   
把url中的_o去掉就可以了,这好像是反爬虫的问题
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

 楼主| 发表于 2020-9-22 09:22:33 | 显示全部楼层
sunrise085 发表于 2020-9-21 21:53
把url中的_o去掉就可以了,这好像是反爬虫的问题

多谢
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2025-1-18 15:59

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表