鱼C论坛

 找回密码
 立即注册
查看: 2475|回复: 3

[已解决]关于数据存储,请大神赐教!

[复制链接]
发表于 2020-11-28 08:54:32 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
  1. import requests
  2. import json

  3. url = 'http://scxk.nmpa.gov.cn:81/xk/itownet/portalAction.do?method=getXkzsList'

  4. header = {
  5.     'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:83.0) Gecko/20100101 Firefox/83.0'
  6.     }

  7. id_datas = []
  8. for page in range(1,200):
  9.     page = str(page)   
  10.     data = {
  11.         'on':'true',
  12.         'page':page,
  13.         'pageSize':'15',
  14.         'productName':'',
  15.         'condition':'1',
  16.         'applyname':'',
  17.         'applysn':''
  18.         }
  19.     response = requests.post(url=url,data=data,headers=header)
  20.     dict_json = response.json()
  21.     id_datas.append(dict_json)
复制代码


以上代码报错:json.decoder.JSONDecodeError: Expecting value: line 1 column 1 (char 0)
如果爬取少量数据可以!
应该如何解决?
最佳答案
2020-11-28 09:00:08
测试了一下,发现有爬取下来是空的的网页,于是加了个判断
  1. import requests
  2. import json

  3. url = 'http://scxk.nmpa.gov.cn:81/xk/itownet/portalAction.do?method=getXkzsList'

  4. header = {
  5.     'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:83.0) Gecko/20100101 Firefox/83.0'
  6.     }

  7. id_datas = []
  8. for page in range(1,200):
  9.     page = str(page)   
  10.     data = {
  11.         'on':'true',
  12.         'page':page,
  13.         'pageSize':'15',
  14.         'productName':'',
  15.         'condition':'1',
  16.         'applyname':'',
  17.         'applysn':''
  18.         }
  19.     response = requests.post(url=url,data=data,headers=header)
  20.     if response.text:
  21.         dict_json = response.json()
  22.         id_datas.append(dict_json)
复制代码
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

发表于 2020-11-28 09:00:08 | 显示全部楼层    本楼为最佳答案   
测试了一下,发现有爬取下来是空的的网页,于是加了个判断
  1. import requests
  2. import json

  3. url = 'http://scxk.nmpa.gov.cn:81/xk/itownet/portalAction.do?method=getXkzsList'

  4. header = {
  5.     'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:83.0) Gecko/20100101 Firefox/83.0'
  6.     }

  7. id_datas = []
  8. for page in range(1,200):
  9.     page = str(page)   
  10.     data = {
  11.         'on':'true',
  12.         'page':page,
  13.         'pageSize':'15',
  14.         'productName':'',
  15.         'condition':'1',
  16.         'applyname':'',
  17.         'applysn':''
  18.         }
  19.     response = requests.post(url=url,data=data,headers=header)
  20.     if response.text:
  21.         dict_json = response.json()
  22.         id_datas.append(dict_json)
复制代码
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2020-11-28 09:28:48 | 显示全部楼层
qiuyouzhi 发表于 2020-11-28 09:00
测试了一下,发现有爬取下来是空的的网页,于是加了个判断

学习了,感谢!
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-11-28 09:38:36 | 显示全部楼层
天牛 发表于 2020-11-28 09:28
学习了,感谢!

如果问题已解决,请设置【最佳答案】~
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2025-6-30 08:23

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表