鱼C论坛

 找回密码
 立即注册
查看: 1277|回复: 3

[已解决]爬虫翻页问题?

[复制链接]
发表于 2019-7-15 10:55:20 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
本帖最后由 kelby 于 2020-11-8 10:48 编辑

……
最佳答案
2019-7-15 11:20:03
点击翻页的时候url类似http://www.example.com/xxx?page_a01http://www.example.com/xxx?page_a02这样的,直接去遍历吧。
既然你说了,第一页地址最后面是a01,第二页是a02,a03...a20...,那我可以理解你这个总页数没有超过100,如果是a1,a2....a99,可以直接遍历,但是a后面的数字被填充到2位,如果不足两位,前面的用0填充。

举个例子,比如现在有20页

第一种方法,在循环中加入判断,如果页数在10以内(不含10),前面加个0,否则不做改变
  1. import requests

  2. base_url = 'http://www.example.com/xxx?page_a{}'
  3. for page in range(1,21):
  4.     if len(str(page)) == 1:
  5.         url = base_url.format('0' + str(page))
  6.     else:
  7.         url = base_url.format(str(page))
  8.     try:
  9.         r = requests.get(url)
  10.         r.encoding = r.apparent_encoding
  11.         print(r.text)
  12.     except Exception as e:
  13.         print(e)
复制代码


第二种方法,使用zfil()函数进行填充

  1. import requests

  2. base_url = 'http://www.example.com/xxx?page_a%s'
  3. for page in range(1,21):
  4.     page = str(page).zfill(2)
  5.     url = base_url % page
  6.     try:
  7.         r = requests.get(url)
  8.         r.encoding=r.apparent_encoding
  9.     except Exception as e:
  10.         print(e)
复制代码



好了,希望对你有帮助。



小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

发表于 2019-7-15 11:20:03 | 显示全部楼层    本楼为最佳答案   
点击翻页的时候url类似http://www.example.com/xxx?page_a01http://www.example.com/xxx?page_a02这样的,直接去遍历吧。
既然你说了,第一页地址最后面是a01,第二页是a02,a03...a20...,那我可以理解你这个总页数没有超过100,如果是a1,a2....a99,可以直接遍历,但是a后面的数字被填充到2位,如果不足两位,前面的用0填充。

举个例子,比如现在有20页

第一种方法,在循环中加入判断,如果页数在10以内(不含10),前面加个0,否则不做改变
  1. import requests

  2. base_url = 'http://www.example.com/xxx?page_a{}'
  3. for page in range(1,21):
  4.     if len(str(page)) == 1:
  5.         url = base_url.format('0' + str(page))
  6.     else:
  7.         url = base_url.format(str(page))
  8.     try:
  9.         r = requests.get(url)
  10.         r.encoding = r.apparent_encoding
  11.         print(r.text)
  12.     except Exception as e:
  13.         print(e)
复制代码


第二种方法,使用zfil()函数进行填充

  1. import requests

  2. base_url = 'http://www.example.com/xxx?page_a%s'
  3. for page in range(1,21):
  4.     page = str(page).zfill(2)
  5.     url = base_url % page
  6.     try:
  7.         r = requests.get(url)
  8.         r.encoding=r.apparent_encoding
  9.     except Exception as e:
  10.         print(e)
复制代码



好了,希望对你有帮助。



小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2019-7-15 12:17:43 | 显示全部楼层
replace('a01', 'a02')
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2019-7-15 14:05:19 | 显示全部楼层
import requests

base_url = 'http://www.example.com/xxx?page_a%s'
for page in range(1,21):
    page = str(page).zfill(2)
    url = base_url % page
    #print(url)
    try:
        r = requests.get(url)
        r.encoding=r.apparent_encoding
    except Exception as e:
        print(e)
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2025-12-6 08:50

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表