ceaqw 发表于 2019-1-20 09:52:11

略略略

kevinz007 发表于 2019-1-20 20:31:18

谢谢分享,不过我有个问题咨询:

用requests 做了个有道词典那个
为啥我也用有道词典试了,回来的url地址不同,
你的是 'http://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule&sessionFrom=null'
我的是 'http://fanyi.youdao.com/translate_o?smartresult=dict&smartresult=rule'
结果就是我的因为没有后面那段死后不成功,后来拷贝了你的url地址才成功。
谢谢。

xyzhu 发表于 2019-1-20 20:43:45

看看

2008ill 发表于 2019-1-20 22:23:54

()

小cp 发表于 2019-1-21 02:50:38

1

GodLordGee 发表于 2019-1-21 13:51:10

学习学习,谢谢楼主

wagchoircx 发表于 2019-1-25 13:02:34

太棒啦

anticheung 发表于 2019-1-25 14:13:06

看看~

人生无极限 发表于 2019-1-25 16:54:31

666

C'rɑごy 发表于 2019-1-26 18:48:08

looklook

陈路路先生 发表于 2019-3-8 20:02:38

huifu

seeyou2night 发表于 2019-3-13 20:16:53

学习一下,感谢

ouzhaoyuan 发表于 2019-3-16 01:11:03

不规范vb

ouzhaoyuan 发表于 2019-3-16 01:22:11

大佬我项想问下为什么你的源代码import urllib 就可以了 但是在我这里不行呀老哥
还有就是为什么有些导入request却有些导入requsers

°蓝鲤歌蓝 发表于 2019-3-16 10:55:58

1. 我的源码里并不是 import urllib,而是 import urllib.request。
2. requests 和 urllib 是两个模块,两个模块都可以写爬虫,但是用 urllib 模块来写需要用它的 request 方法,所以是 import urllib.request,我的帖子开头也引入了 requests 模块的帮助文档。
3.学习要认真,看帖子也要认真,不要着急,不然只是白白浪费时间。

hidewind 发表于 2019-3-16 13:13:33

{:7_130:}

黄逗逗 发表于 2019-3-16 15:30:42

真的能爬出来吗

天天动听 发表于 2019-3-18 11:04:54

学习一下

lychee007007 发表于 2019-3-21 08:35:51

强啊

开启新征程 发表于 2019-3-22 14:17:30

这个网址打不开了
页: 7 8 9 10 11 12 13 14 15 16 [17] 18 19 20 21 22 23 24 25 26
查看完整版本: urllib模块以及进阶版requests 模块实战之爬取妹子图、有道翻译以及百度贴吧