fdk少东家 发表于 2018-4-17 21:49:51

爬虫百度翻译的问题

import requests
import json

#1.获取post的url,及数据
post_url = "http://fanyi.baidu.com/v2transapi"
post_tran = {"from":"zh",
            "to":"en",
            "query":"一帆风顺",
            "transtype":"translang",
            "simple_means_flag":"3"}
headers = {"user-agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/65.0.3325.146 Safari/537.36"}

#2.发送请求,获取响应
r = requests.post(post_url,headers=headers,data=post_tran)
json_str = r.content.decode()

#3.提取数据,打印
dict_response = json.loads(json_str)



#就是这一句,为什么一直是KeyError: 'trans_result',json解析的就是这个key值啊
result = dict_response["trans_result"]["data"]["dst"]



print('翻译结果是:{}'.format(result))



哪个地方错了??一直不知道!

ba21 发表于 2018-4-17 21:52:15

因为反爬了。换别的站试咯

fdk少东家 发表于 2018-4-17 21:53:30

ba21 发表于 2018-4-17 21:52
因为反爬了。换别的站试咯

我去试试

fdk少东家 发表于 2018-4-17 23:23:25

ba21 发表于 2018-4-17 21:52
因为反爬了。换别的站试咯

我试了有道词典的,代码格式一样,开始也不能用,看来网友的帖子,换了url就行了。应该是百度的这个链接的问题。

json 发表于 2018-4-18 21:25:53

稍微看了一下,里面有一个sign算法,没有细致的分析,你可以去看看
首先翻译需要访问的url
https://fanyi.baidu.com/v2transapi
参数需要如下
from: zh
to: en
query: (hide)
simple_means_flag: 3
sign: (hide)
token: (hide)
这里的query就是需要翻译的文字
simple_means_flag这里统一写成3就可以,那么还需要找到sign和token的值
token的值其实是在主页面上,之后又存储到window.common.token里,python的话访问一下主页面,正则表达式就可以获取到,下面截取一小段主页面的内容
window['common'] = {
    token: '9b8bb341109338ba7e875bd9a9dd88ba',
    systime: '1524055777870',
剩下就还有sign的值了,在百度翻译的index_xxxx.js文件里面可以找到如下一段小代码
p={from:g.fromLang,to:g.toLang,query:a,transtype:n,simple_means_flag:3,sign:m(a),token:window.common.token};
由此发现sign是由m函数获取,而m函数在这个文件中也给出了,下面是截取的代码
function a(r) {
      if (Array.isArray(r)) {
            for (var o = 0, t = Array(r.length); o < r.length; o++) t = r;
            return t
      }
      return Array.from(r)
    }

    function n(r, o) {
      for (var t = 0; t < o.length - 2; t += 3) {
            var a = o.charAt(t + 2);
            a = a >= "a" ? a.charCodeAt(0) - 87 : Number(a), a = "+" === o.charAt(t + 1) ? r >>> a : r << a, r = "+" === o.charAt(t) ? r + a & 4294967295 : r ^ a
      }
      return r
    }

    function e(r) {
            // 成对的代理项对
      var o = r.match(/[\uD800-\uDBFF][\uDC00-\uDFFF]/g);
      if (null === o) {
            var t = r.length;
            t > 30 && (r = "" + r.substr(0, 10) + r.substr(Math.floor(t / 2) - 5, 10) + r.substr(-10, 10))
      } else {
            for (var e = r.split(/[\uD800-\uDBFF][\uDC00-\uDFFF]/), C = 0, h = e.length, f = []; h > C; C++) "" !== e && f.push.apply(f, a(e.split(""))), C !== h - 1 && f.push(o);
            var g = f.length;
            g > 30 && (r = f.slice(0, 10).join("") + f.slice(Math.floor(g / 2) - 5, Math.floor(g / 2) + 5).join("") + f.slice(-10).join(""))
      }
      var u = void 0,
            l = "" + String.fromCharCode(103) + String.fromCharCode(116) + String.fromCharCode(107);
      u = null !== i ? i : (i = window || "") || "";
      for (var d = u.split("."), m = Number(d) || 0, s = Number(d) || 0, S = [], c = 0, v = 0; v < r.length; v++) {
            var A = r.charCodeAt(v);
            128 > A ? S = A : (2048 > A ? S = A >> 6 | 192 : (55296 === (64512 & A) && v + 1 < r.length && 56320 === (64512 & r.charCodeAt(v + 1)) ? (A = 65536 + ((1023 & A) << 10) + (1023 & r.charCodeAt(++v)), S = A >> 18 | 240, S = A >> 12 & 63 | 128) : S = A >> 12 | 224, S = A >> 6 & 63 | 128), S = 63 & A | 128)
      }
      for (var p = m, F = "" + String.fromCharCode(43) + String.fromCharCode(45) + String.fromCharCode(97) + ("" + String.fromCharCode(94) + String.fromCharCode(43) + String.fromCharCode(54)), D = "" + String.fromCharCode(43) + String.fromCharCode(45) + String.fromCharCode(51) + ("" + String.fromCharCode(94) + String.fromCharCode(43) + String.fromCharCode(98)) + ("" + String.fromCharCode(43) + String.fromCharCode(45) + String.fromCharCode(102)), b = 0; b < S.length; b++) p += S, p = n(p, F);
      return p = n(p, D), p ^= s, 0 > p && (p = (2147483647 & p) + 2147483648), p %= 1e6, p.toString() + "." + (p ^ m)
    }
其中的e就是m函数了,我这里没有细致的去分析了,你可以试试翻译成python。

注意最后访问的时候其实还需要一个cookie
BAIDUID=049DE15200D1E7F9BDA011E2BF2117A6:FG=1;
而这个在访问第一次访问主页面的时候就伴随着headers返回了。

当然,我记得requests有个session,似乎在访问主页面后会自动存储这些cookie的。没有写code来验证,你如果有时间的话,希望可以验证一下。

MONSTER123 发表于 2018-9-20 18:49:47

请问楼主是怎么解决的呢,我也是出现KeyError: 'trans_result',一直不知道哪里错了
页: [1]
查看完整版本: 爬虫百度翻译的问题