鱼C论坛

 找回密码
 立即注册
查看: 2610|回复: 5

55课爬虫:隐藏 代码运行结果显示UnicodeEncodeError

[复制链接]
发表于 2017-9-3 00:25:59 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
代码如下
  1. import urllib.request
  2. import urllib.parse
  3. import json

  4. content = input("请输入需要翻译的内容:")
  5. url = 'http://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule'

  6. head ={}
  7. head['User-Agent'] = 'Mozilla/5.0 (Windows NT 10.0; …) Gecko/20100101 Firefox/55.0 '


  8. data ={}
  9. data['i']= content
  10. data['from']='AUTO'
  11. data['to'] = 'AUTO'
  12. data['doctype']='json'
  13. data['version']='2.1'
  14. data['keyfrom']='fanyi.web'
  15. data['action']='FY_BY_CLICKBUTTION'
  16. data['typoResult']='true'
  17. data = urllib.parse.urlencode(data).encode('utf-8')

  18. req = urllib.request.Request(url,data,head)
  19. response = urllib.request.urlopen(req)
  20. html = response.read().decode('utf-8')


  21. target = json.loads(html)
  22. print('翻译结果:%s'%(target['translateResult'][0][0]['tgt']))

复制代码
运行结果如下
捕获.PNG
什么原因啊,跟着小甲鱼老师敲的,为什么总报错呢?

小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

发表于 2017-9-3 00:31:27 | 显示全部楼层
  1. import os,urllib.request
  2. import urllib.parse
  3. import json
  4. a = 5
  5. while a > 0:
  6.         txt = input('输入要翻译的内容!')
  7.         if txt == '0':
  8.                 break
  9.                
  10.         else:
  11.                 os.chdir('e:\\python')
  12.                 url = 'http://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule&sessionFrom=https://www.baidu.com/link'

  13.                 data = {
  14.                 'from':'AUTO',
  15.                 'to':'AUTO',
  16.                 'smartresult':'dict',
  17.                 'client':'fanyideskweb',
  18.                 'salt':'1500092479607',
  19.                 'sign':'c98235a85b213d482b8e65f6b1065e26',
  20.                 'doctype':'json',
  21.                 'version':'2.1',
  22.                 'keyfrom':'fanyi.web',
  23.                 'action':'FY_BY_CL1CKBUTTON',
  24.                 'typoResult':'true'}

  25.                 data['i'] = txt

  26.                 data = urllib.parse.urlencode(data).encode('utf - 8')
  27.                 wy = urllib.request.urlopen(url,data)
  28.                 html = wy.read().decode('utf - 8')
  29.                 print(html)

  30.                 ta = json.loads(html)
  31.                 print('翻译结果: %s '% (ta['translateResult'][0][0]['tgt']))
  32.                 a = a - 1
  33.                
复制代码
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2017-9-3 00:33:36 | 显示全部楼层

什么原因,可以详细讲一下吗
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2017-9-3 11:24:24 | 显示全部楼层
holistic杀手 发表于 2017-9-3 00:33
什么原因,可以详细讲一下吗

好比你要到鱼C发表贴子,首先要有帐号密码吧。
这里爬虫已经很明确了,你要爬人家网站的数据不是你想要爬就能爬,对于要求不严的好点,如果要求严的你总得提供合理的访问数据(好比帐号密码)
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2017-9-4 00:18:27 | 显示全部楼层
ba21 发表于 2017-9-3 11:24
好比你要到鱼C发表贴子,首先要有帐号密码吧。
这里爬虫已经很明确了,你要爬人家网站的数据不是你想要 ...

可是还是我这个代码,在不加head之前是可以爬的呀。代码如下
  1. import urllib.request
  2. import urllib.parse
  3. import json

  4. content = input("请输入需要翻译的内容:")

  5. url = 'http://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule'
  6. data ={}
  7. data['i']= content
  8. data['from']='AUTO'
  9. data['to'] = 'AUTO'
  10. data['doctype']='json'
  11. data['version']='2.1'
  12. data['keyfrom']='fanyi.web'
  13. data['action']='FY_BY_CLICKBUTTION'
  14. data['typoResult']='true'
  15. data = urllib.parse.urlencode(data).encode('utf-8')

  16. response = urllib.request.urlopen(url,data)
  17. html=response.read().decode('utf-8')


  18. target = json.loads(html)
  19. print('翻译结果:%s'%(target['translateResult'][0][0]['tgt']))

复制代码

小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2017-9-6 14:12:53 | 显示全部楼层
最后问老师终于知道了我的问题其实是useragent的编码问题,改一下浏览器就好了!!
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2025-12-23 15:31

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表