鱼C论坛

 找回密码
 立即注册
查看: 1728|回复: 5

[已解决]通过正则法则爬取网页数据问题

[复制链接]
发表于 2021-10-25 21:55:45 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
在百度爬虫的过程中,我通过html更改 (pn)https://www.baidu.com/s?wd=“搜索的内容” pn=20, 来翻页获取信息,但是我在一些网页上发现有些网页的分页不是通过pn改变的,那么怎么批量获取分页的网络信息呢?
例如:同花顺http://q.10jqka.com.cn/,里面有个股分页
希望有大佬可以帮忙解答,或者告诉我下一步该去学什么。
万分感谢~
最佳答案
2021-10-25 22:57:21
本帖最后由 suchocolate 于 2021-10-25 23:02 编辑

翻页这种操作要分网站的:
1)有的网站改url,如原来是:abc.com/top/  变成了 abc.com/second/
2)有的网站改url参数:如原来是 abc.com/top?pn=1 变成了 abc.com/top?pn=2
3)还有的网站要写在data中。
  1. import requests
  2. url = 'http://test.com'
  3. data = {'page': '1'}
  4. headers = {'user-agent': 'firefox'}
  5. r = requests.get(url, headers=headers, data=data)
  6. print(r.text)
复制代码


你的股票的网址用的是第1种:
  1. import requests
  2. from lxml import etree


  3. def main():
  4.     headers = {'user-agent': 'firefox', 'X-Requested-With': 'XMLHttpRequest'}
  5.     for i in range(1, 10):
  6.         url = f'http://q.10jqka.com.cn/index/index/board/all/field/zdf/order/desc/page/{i}/ajax/1/'   # 替换其中的页码编号
  7.         r = requests.get(url, headers=headers)
  8.         html = etree.HTML(r.text)
  9.         result = html.xpath('//tr//text()')
  10.         print(result)


  11. if __name__ == '__main__':
  12.     main()
复制代码
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2021-10-25 22:57:21 | 显示全部楼层    本楼为最佳答案   
本帖最后由 suchocolate 于 2021-10-25 23:02 编辑

翻页这种操作要分网站的:
1)有的网站改url,如原来是:abc.com/top/  变成了 abc.com/second/
2)有的网站改url参数:如原来是 abc.com/top?pn=1 变成了 abc.com/top?pn=2
3)还有的网站要写在data中。
  1. import requests
  2. url = 'http://test.com'
  3. data = {'page': '1'}
  4. headers = {'user-agent': 'firefox'}
  5. r = requests.get(url, headers=headers, data=data)
  6. print(r.text)
复制代码


你的股票的网址用的是第1种:
  1. import requests
  2. from lxml import etree


  3. def main():
  4.     headers = {'user-agent': 'firefox', 'X-Requested-With': 'XMLHttpRequest'}
  5.     for i in range(1, 10):
  6.         url = f'http://q.10jqka.com.cn/index/index/board/all/field/zdf/order/desc/page/{i}/ajax/1/'   # 替换其中的页码编号
  7.         r = requests.get(url, headers=headers)
  8.         html = etree.HTML(r.text)
  9.         result = html.xpath('//tr//text()')
  10.         print(result)


  11. if __name__ == '__main__':
  12.     main()
复制代码
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2021-10-26 00:24:26 | 显示全部楼层
suchocolate 发表于 2021-10-25 22:57
翻页这种操作要分网站的:
1)有的网站改url,如原来是:abc.com/top/  变成了 abc.com/second/
2)有的 ...

牛!
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2021-10-26 00:31:47 | 显示全部楼层
suchocolate 发表于 2021-10-25 22:57
翻页这种操作要分网站的:
1)有的网站改url,如原来是:abc.com/top/  变成了 abc.com/second/
2)有的 ...

同花顺这个url 是怎么获得的? 我用chorme 就是不变的。。
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2021-10-26 08:07:32 | 显示全部楼层
wangwang123 发表于 2021-10-26 00:31
同花顺这个url 是怎么获得的? 我用chorme 就是不变的。。

我用的firefox,f12模式,点击网络,点击下一页,url就会多出html,json等等资源加载过程,就能看到了。
屏幕截图 2021-10-26 080655.jpg
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2021-10-26 11:22:02 | 显示全部楼层
suchocolate 发表于 2021-10-26 08:07
我用的firefox,f12模式,点击网络,点击下一页,url就会多出html,json等等资源加载过程,就能看到了。
...

太棒了!谢谢你~
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2024-5-10 14:37

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表