鱼C论坛

 找回密码
 立即注册
查看: 2505|回复: 12

[已解决]爬虫挑战

[复制链接]
发表于 2023-11-27 22:45:15 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
请教一下,

最近通过docker拉取了小雅的资源库,

地址是:  http://www.038909.xyz:5678/

如何爬取整个网站的资源。不下载,只获取文件目录,拼接成如下的
http://www.038909.xyz:5678/d/%E6%B8%B8%E6%88%8F/PC/03.%E7%A7%8D%E5%AD%90%E6%96%87%E4%BB%B6%E9%9B%86%E5%90%88/%E7%A7%8D%E5%AD%90%E6%96%87%E4%BB%B6/2012%E5%B9%B46%E6%9C%88~11%E6%9C%88/%E5%90%88%E9%9B%86.exe




ps自己的网站,随便折腾。

好像是通过post实现【http://www.038909.xyz:5678/api/fs/list】

但不太好获取   {path: "/有声书", password: "", page: 1, per_page: 30, refresh: false}

有想试试的吗?
最佳答案
2023-11-28 01:56:38
简单的看了一下,挺简单的,^_^
简单的说一下思路
先把主页面爬下来,看了看发现没有这个目录列表
看了下浏览器接收到的数据,发现了你提到的这个地址
  1. http://www.038909.xyz:5678/api/fs/list
复制代码


简单的研究了一下,得到了这个地址的使用方法
其实就是多看几个目录在这个地址上收到的数据,找规律么
然后就是根据找到的规律写代码了

另外,这个网站的反爬机制还不错
我目前最简单的解决方法也就是sleep一会了
1秒一个目录,出错了再10秒重试一下
如果这是你自己的网站,在测试爬虫的时候可以把这个目录弄的小一点么
我这爬了十几分钟了,才爬到 /体育/健身 这个目录,^_^
下面这个程序用于获取这个网站的整个目录树

  1. #!/usr/bin/env python
  2. #coding=utf-8

  3. import requests
  4. import json
  5. import itertools
  6. import time
  7. from retry import retry
  8. import sys
  9. import logging

  10. logging.basicConfig(stream = sys.stderr, level = logging.WARNING)
  11. headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3"}

  12. @retry(delay = 10, logger = logging.getLogger())
  13. def list_dir(path):
  14.     time.sleep(1)
  15.     print(path, file = sys.stderr)
  16.     content = []
  17.     for page in itertools.count(1):
  18.         json_ = {"path": path, "password": "", "page": page, "per_page": 30, "refresh": False}
  19.         url = 'http://www.038909.xyz:5678/api/fs/list'
  20.         response = requests.post(url, json = json_, headers = headers)
  21.         response.encoding = 'utf-8'
  22.         json_ = json.loads(response.text)
  23.         data = json_['data']
  24.         if data['content'] != None: content.extend(data['content'])
  25.         total = data['total']
  26.         if total == len(content): break
  27.     for i in content:
  28.         if not i['is_dir']: continue
  29.         i['dir_content'] = list_dir(path + i['name'] + '/')
  30.     return content

  31. content = list_dir('/')
  32. print(content)
复制代码

本帖被以下淘专辑推荐:

小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

发表于 2023-11-27 22:45:35 | 显示全部楼层
可以使用Python的requests库来发送POST请求获取文件目录信息,并对返回的数据进行解析。以下是一个示例代码:
  1. import requests
  2. def get_file_list(url, path):
  3.     data = {
  4.         "path": path,
  5.         "password": "",
  6.         "page": 1,
  7.         "per_page": 30,
  8.         "refresh": False
  9.     }
  10.    
  11.     response = requests.post(url, json=data)
  12.     if response.status_code == 200:
  13.         files = response.json().get("files")
  14.         if isinstance(files, list):
  15.             return files
  16.     return []
  17. def generate_download_url(base_url, file_path):
  18.     # 将文件路径中的特殊字符编码转换为URL编码
  19.     encoded_path = "/".join([requests.utils.quote(part) for part in file_path.split("/")])
  20.     return f"{base_url}/{encoded_path}"
  21. url = "http://www.038909.xyz:5678/api/fs/list"
  22. base_url = "http://www.038909.xyz:5678"
  23. file_list = get_file_list(url, "/")
  24. for file_info in file_list:
  25.     file_path = file_info.get("path")
  26.     download_url = generate_download_url(base_url, file_path)
  27.     print(download_url)
复制代码

这段代码先定义了一个`get_file_list`函数,用于发送POST请求获取文件目录信息。然后定义了一个`generate_download_url`函数,用于根据文件路径生成可下载的文件URL。最后在主程序部分,通过调用`get_file_list`函数获取文件列表,并循环遍历输出每个文件的下载URL。

请注意,这段代码仅提供了实现思路和示例代码,具体情况可能需要根据网站的实际接口和返回数据格式进行调整。同时,爬取网站资源可能涉及到合法性和道德性问题,请务必遵守相关法律法规和网站的使用规定。

以上回复来自 -- ChatGPT(FishC官方接口),如未能正确解答您的问题,请继续追问。
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2023-11-27 22:47:09 | 显示全部楼层
乱码了,路径如下。
1111.png
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2023-11-27 22:47:36 | 显示全部楼层
fineconey 发表于 2023-11-27 22:47
乱码了,路径如下。

如果路径中包含了URL编码的特殊字符,可以使用Python的urllib库来进行URL解码。以下是更新过后的代码示例:import requestsfrom urllib.parse import unquotedef get_file_list(url, path):    data = {        "path": path,        "password": "",        "page": 1,        "per_page": 30,        "refresh": False    }    response = requests.post(url, json=data)    if response.status_code == 200:        files = response.json().get("files")        if isinstance(files, list):            return files    return []def generate_download_url(base_url, file_path):    # 解码URL编码的文件路径    decoded_path = unquote(file_path)    return f"{base_url}/{decoded_path}"url = "http://www.038909.xyz:5678/api/fs/list"base_url = "http://www.038909.xyz:5678"direc_path = "/%E6%B8%B8%E6%88%8F/PC/03.%E7%A7%8D%E5%AD%90%E6%96%87%E4%BB%B6%E9%9B%86%E5%90%88/%E7%A7%8D%E5%AD%90%E6%96%87%E4%BB%B6/2012%E5%B9%B46%E6%9C%88~11%E6%9C%88/%E5%90%88%E9%9B%86.exepsfile_list = get_file_list(url, direc_path)for file_info in file_list:    file_path = file_info.get("path")    download_url = generate_download_url(base_url, file_path)    print(download_url)这段代码在之前的基础上,增加了一个`unquote`函数的调用来解码URL编码的文件路径。由于你提供的示例路径是已经进行了URL编码的,所以需要将路径进行解码才能得到正确的下载URL。请注意,这代码仅提供了解决乱码问题的思路和示例代码,请根据实际情况进行调整。

以上回复来自 -- ChatGPT(FishC官方接口),如未能正确解答您的问题,请继续追问。
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2023-11-27 22:56:27 | 显示全部楼层
明天有空的话看看
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2023-11-28 01:56:38 | 显示全部楼层    本楼为最佳答案   
简单的看了一下,挺简单的,^_^
简单的说一下思路
先把主页面爬下来,看了看发现没有这个目录列表
看了下浏览器接收到的数据,发现了你提到的这个地址
  1. http://www.038909.xyz:5678/api/fs/list
复制代码


简单的研究了一下,得到了这个地址的使用方法
其实就是多看几个目录在这个地址上收到的数据,找规律么
然后就是根据找到的规律写代码了

另外,这个网站的反爬机制还不错
我目前最简单的解决方法也就是sleep一会了
1秒一个目录,出错了再10秒重试一下
如果这是你自己的网站,在测试爬虫的时候可以把这个目录弄的小一点么
我这爬了十几分钟了,才爬到 /体育/健身 这个目录,^_^
下面这个程序用于获取这个网站的整个目录树

  1. #!/usr/bin/env python
  2. #coding=utf-8

  3. import requests
  4. import json
  5. import itertools
  6. import time
  7. from retry import retry
  8. import sys
  9. import logging

  10. logging.basicConfig(stream = sys.stderr, level = logging.WARNING)
  11. headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3"}

  12. @retry(delay = 10, logger = logging.getLogger())
  13. def list_dir(path):
  14.     time.sleep(1)
  15.     print(path, file = sys.stderr)
  16.     content = []
  17.     for page in itertools.count(1):
  18.         json_ = {"path": path, "password": "", "page": page, "per_page": 30, "refresh": False}
  19.         url = 'http://www.038909.xyz:5678/api/fs/list'
  20.         response = requests.post(url, json = json_, headers = headers)
  21.         response.encoding = 'utf-8'
  22.         json_ = json.loads(response.text)
  23.         data = json_['data']
  24.         if data['content'] != None: content.extend(data['content'])
  25.         total = data['total']
  26.         if total == len(content): break
  27.     for i in content:
  28.         if not i['is_dir']: continue
  29.         i['dir_content'] = list_dir(path + i['name'] + '/')
  30.     return content

  31. content = list_dir('/')
  32. print(content)
复制代码
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2023-11-28 02:03:23 | 显示全部楼层
fineconey 发表于 2023-11-27 22:47
乱码了,路径如下。

还是直接用 api 吧,这样去拼 url 不得行
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 1 反对 0

使用道具 举报

发表于 2023-11-28 19:58:25 | 显示全部楼层
再改一改,我发现文件没有爬到下载地址,需要使用下面这个地址再对文件进行一次请求
  1. http://www.038909.xyz:5678/api/fs/get
复制代码


爬了两个多小时才爬到 "/体育/健身/【赛普健身专业视频】价值19800元/实用工具图表/体质判断对照图",^_^
然后服务器断开连接了,看起来是我的ip被封了,^_^

  1. #!/usr/bin/env python
  2. #coding=utf-8

  3. import requests
  4. import json
  5. import itertools
  6. import time
  7. from retry import retry
  8. import sys
  9. import logging

  10. logging.basicConfig(stream = sys.stderr, level = logging.WARNING)
  11. headers = {"User-Agent": "Mozilla/6.0 (X11; Linux x86_64; rv:109.0) Gecko/20120101 Firefox/139.0"}
  12. dir_url = 'http://www.038909.xyz:5678/api/fs/list'
  13. file_url = 'http://www.038909.xyz:5678/api/fs/get'

  14. @retry(delay = 5, logger = logging.getLogger())
  15. def read_json(path, url, json_):
  16.     time.sleep(1)
  17.     response = requests.post(url, json = json_, headers = headers)
  18.     json_ = json.loads(response.text)
  19.     if json_['code'] != 200: raise ValueError(json_['message'])
  20.     return json_['data']

  21. def read_file(path):
  22.     print(path, file = sys.stderr)
  23.     json_ = {"path": path, "password": ""}
  24.     return read_json(path, file_url, json_)

  25. def read_dir(path):
  26.     print(path, file = sys.stderr)
  27.     content = []
  28.     for page in itertools.count(1):
  29.         json_ = {"path": path, "password": "", "page": page, "per_page": 30, "refresh": False}
  30.         data = read_json(path, dir_url, json_)
  31.         if data['content'] != None: content.extend(data['content'])
  32.         total = data['total']
  33.         if total == len(content): break
  34.     for i in range(len(content)):
  35.         is_dir = content[i]['is_dir']
  36.         name = content[i]['name']
  37.         if is_dir: content[i]['dir_content'] = read_dir(path + name + '/')
  38.         else: content[i] = read_file(path + name)
  39.     return content

  40. #content = read_dir('/游戏/PC/07.运行库/')
  41. content = read_dir('/')
  42. print(content)
复制代码
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2023-11-28 20:19:37 | 显示全部楼层
人造人 发表于 2023-11-28 19:58
再改一改,我发现文件没有爬到下载地址,需要使用下面这个地址再对文件进行一次请求

我临时关了,看了下后台,走了接近n多流量。。。。。
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2023-11-28 20:20:27 | 显示全部楼层
人造人 发表于 2023-11-28 19:58
再改一改,我发现文件没有爬到下载地址,需要使用下面这个地址再对文件进行一次请求

结构是一样的,可以试试这个。

https://pan.mediy.cn/
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2023-11-28 21:03:18 | 显示全部楼层
fineconey 发表于 2023-11-28 20:20
结构是一样的,可以试试这个。

https://pan.mediy.cn/

需要我继续挂这个脚本去爬整个目录树吗?
^_^
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 1 反对 0

使用道具 举报

 楼主| 发表于 2023-11-28 21:57:39 | 显示全部楼层
人造人 发表于 2023-11-28 21:03
需要我继续挂这个脚本去爬整个目录树吗?
^_^

喜欢什么就下载什么吧。
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2023-12-1 16:04:24 | 显示全部楼层
人造人 发表于 2023-11-28 01:56
简单的看了一下,挺简单的,^_^
简单的说一下思路
先把主页面爬下来,看了看发现没有这个目录列表

可惜了,对于我们这样的新手来说,你的很多库都不知道是干嘛的,哈哈!
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2025-6-24 04:21

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表