鱼C论坛

 找回密码
 立即注册
查看: 1242|回复: 5

[已解决]为啥我爬取搜狗页面 出错啦

[复制链接]
发表于 2021-1-30 18:18:48 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
  1. # _*_ coding:utf-8
  2. # author:小军
  3. # @Time:1/30/2021 3:12 PM
  4. # @File:requests网页采集器.py

  5. import requests
  6. if __name__ == '__main__':

  7.     headers = {'Uers_Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/88.0.4324.96 Safari/537.36 Edg/88.0.705.53'}

  8.     url = 'https://www.sogou.com/web?'

  9.     content = input('请输入搜索内容:')
  10.     param = { 'query': content }

  11.     response = requests.get(url = url,params = param ,headers = headers)
  12.     page_text = response.text

  13.     FileName = content + '.html'
  14.     with open(FileName,'w',encoding='utf-8') as fp:
  15.         fp.write(page_text)
  16.     print(FileName,'保存成功!')


复制代码


返回的  .html文件 在浏览器打开是  404 Not Found
大佬们为啥呢!!!
最佳答案
2021-2-1 08:16:54
R_jun 发表于 2021-1-31 18:07
修改url之后 网页提示访问出错,是不是被反爬了

是的,被反爬了
反爬原因是爬虫伪装头部信息写错了
  1. # _*_ coding:utf-8
  2. # author:小军
  3. # @Time:1/30/2021 3:12 PM
  4. # @File:requests网页采集器.py

  5. import requests
  6. if __name__ == '__main__':

  7.     headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/88.0.4324.96 Safari/537.36 Edg/88.0.705.53'}

  8.     url = 'https://www.sogou.com/web'

  9.     content = input('请输入搜索内容:')
  10.     param = { 'query': content }

  11.     response = requests.get(url = url,params = param ,headers = headers)
  12.     page_text = response.text

  13.     FileName = content + '.html'
  14.     with open(FileName,'w',encoding='utf-8') as fp:
  15.         fp.write(page_text)
  16.     print(FileName,'保存成功!')


复制代码
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2021-1-31 10:43:55 | 显示全部楼层
爬虫必须保证url是正确的
代码中url
  1. url = 'https://www.sogou.com/web?'
复制代码

你的url直接从网页打开就是404
爬出来也是404
你改一下url吧
  1. url = 'https://www.sogou.com/web'
复制代码
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2021-1-31 13:41:56 | 显示全部楼层
你url的问号是中文的
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2021-1-31 18:07:58 | 显示全部楼层
逃兵 发表于 2021-1-31 10:43
爬虫必须保证url是正确的
代码中url
你的url直接从网页打开就是404

修改url之后 网页提示访问出错,是不是被反爬了
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2021-1-31 23:12:10 | 显示全部楼层
你是想url+搜索内容爬取既定搜索内容吧?
有几个错误:
1、url错误
2、Uers_Agent错误,应该是User-Agent
======具体做法=======
打开搜狗网站,F12检查,点network,搜索任意关键字,例如甲鱼
看到第2条,是get请求
Request URL: https://www.sogou.com/sogou?query=%E7%94%B2%E9%B1%BC&pid=sogou-site-b02d46e8a3d8d9fd
query: 甲鱼
pid: sogou-site-b02d46e8a3d8d9fd
==测试url
https://www.sogou.com/sogou?query=甲鱼
顺利打开
==写代码
url = 'https://www.sogou.com/sogou'  # 带字典访问是不需要?的
headers = ……  # 记得修改正确
其他代码没大问题
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2021-2-1 08:16:54 | 显示全部楼层    本楼为最佳答案   
R_jun 发表于 2021-1-31 18:07
修改url之后 网页提示访问出错,是不是被反爬了

是的,被反爬了
反爬原因是爬虫伪装头部信息写错了
  1. # _*_ coding:utf-8
  2. # author:小军
  3. # @Time:1/30/2021 3:12 PM
  4. # @File:requests网页采集器.py

  5. import requests
  6. if __name__ == '__main__':

  7.     headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/88.0.4324.96 Safari/537.36 Edg/88.0.705.53'}

  8.     url = 'https://www.sogou.com/web'

  9.     content = input('请输入搜索内容:')
  10.     param = { 'query': content }

  11.     response = requests.get(url = url,params = param ,headers = headers)
  12.     page_text = response.text

  13.     FileName = content + '.html'
  14.     with open(FileName,'w',encoding='utf-8') as fp:
  15.         fp.write(page_text)
  16.     print(FileName,'保存成功!')


复制代码
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2024-5-13 07:38

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表