鱼C论坛

 找回密码
 立即注册
查看: 1970|回复: 1

[技术交流] requests

[复制链接]
发表于 2020-8-19 23:01:16 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
requests

在论坛里关于爬虫的示例最多的除了jiandan便是有道了,现在以有道翻译为例子,让我们来看看如何发起请求获取数据,用urllib的写法是这样子的


  1. import urllib.request
  2. import urllib.parse
  3. import json
  4. from faker import Faker


  5. url = 'http://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule'
  6. ua = Faker().user_agent()

  7. key = input("请输入你需要翻译的内容: ")

  8. # 请求头
  9. headers = {
  10.     'User-Agent': ua,
  11.     'Host': 'fanyi.youdao.com',
  12.     'Origin': 'http://fanyi.youdao.com',
  13.     'Referer': 'http://fanyi.youdao.com/',

  14. }


  15. # 表单数据
  16. from_data = {
  17.     'i': key,
  18.     'from': 'UTO',
  19.     'to': 'UTO',
  20.     'smartresult': 'dict',
  21.     'client': 'fanyideskweb',
  22.     'doctype': 'json',
  23.     'version': '2.1',
  24.     'keyfrom': 'fanyi.web',
  25.     'action': 'FY_BY_REALTlME'
  26. }

  27. from_data = urllib.parse.urlencode(from_data).encode('utf-8')
  28. request = urllib.request.Request(url, from_data, headers)
  29. response = urllib.request.urlopen(request).read().decode("utf-8")

  30. target = json.loads(response)
  31. result = target['translateResult'][0][0]['tgt']

  32. print(result)
复制代码


要是用 requests 库写会是什么样子呢?
  1. # -*-coding:utf-8-*-

  2. import requests
  3. from faker import Faker


  4. url = "http://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule"
  5. ua = Faker().user_agent()

  6. key = input("请输入你需要翻译的内容: ")

  7. # 请求头
  8. headers = {
  9.     "User-Agent": ua,
  10.     "Host": "fanyi.youdao.com",
  11.     "Origin": "http://fanyi.youdao.com",
  12.     "Referer": "http://fanyi.youdao.com/",
  13. }

  14. # 表单数据
  15. from_data = {
  16.     "i": key,
  17.     "from": "UTO",
  18.     "to": "UTO",
  19.     "smartresult": "dict",
  20.     "client": "fanyideskweb",
  21.     "doctype": "json",
  22.     "version": "2.1",
  23.     "keyfrom": "fanyi.web",
  24.     "action": "FY_BY_REALTlME",
  25. }


  26. res = requests.get(url , headers=headers, params=from_data)
  27. target = res.json()

  28. result = target["translateResult"][0][0]["tgt"]
  29. print(result)
复制代码


可以看到,后者比前者简便许多。当然,它还有更多的优点。
requests最常用的方法为 get() 与 post(),使用方式为
  1. requests.get(url) / requests.post(url)
复制代码
,两者等价于
  1. requests.request("get", url) / requests.request("post", url)
复制代码


这些方法会返回一个 Response 对象,该对象常用方法与属性为

  1. res.text
  2. res.content
  3. res.json()
  4. res.encoding
  5. res.status_code
  6. ....
复制代码

小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

 楼主| 发表于 2020-8-19 23:06:07 | 显示全部楼层
1. faker 是一个伪造数据的库,这里暂不用管。另外不是很理解的小伙伴也可以自己尝试使用 requests 爬取数据。
2. 我懒得打字,也不愿意说很基础的东西,我更愿意用 demo来展示 requests 的使用方法。
3. 如果评论区有甩 url 的,我会抽一个使用 requests 进行爬取,并写在下篇文章开头。(不能违法,不能是重要信息或隐私数据等)
4. 希望我能坚持下去。
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2025-6-25 23:42

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表