鱼C论坛

 找回密码
 立即注册
查看: 1664|回复: 8

[已解决]bs4如何爬取第二个子标签里面的内容

[复制链接]
发表于 2020-7-9 17:53:48 | 显示全部楼层 |阅读模式
30鱼币
  1. import requests
  2. import bs4
  3. import re


  4. def open_url(url):
  5.     # 使用代理
  6.     # proxies = {"http": "127.0.0.1:1080", "https": "127.0.0.1:1080"}
  7.     headers = {
  8.         'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/57.0.2987.98 Safari/537.36'}

  9.     # res = requests.get(url, headers=headers, proxies=proxies)
  10.     res = requests.get(url, headers=headers)

  11.     return res






  12. def main():
  13.     ff=open('name.txt','r')
  14.     allurl=[]
  15.     for i in ff.readlines():
  16.         host = "https://trace.ncbi.nlm.nih.gov/Traces/sra/?run="+i
  17.         res = open_url(host)
  18.         soup = bs4.BeautifulSoup(res.text, 'html.parser')
  19.         targets = soup.find_all("table", class_="geo_zebra run-viewer-download")
  20.         for each in targets:
  21.             if each.tbody.tr.td[4].a['href'] is not None:
  22.                 g=each.tbody.tr.td[4].a.get('href')
  23.                 allurl.append(g)


  24.     with open("allurl.txt", "w", encoding="utf-8") as f:
  25.         f.writelines([j+'\n' for j in allurl])


  26. if __name__ == "__main__":
  27.     main()
复制代码


我想要提取图片里面 第四个td下面的链接 但是我不知道怎么做
最佳答案
2020-7-9 17:53:49
wtfitis 发表于 2020-7-9 18:12
目前通过这样解决:
不知道有没有更好的方法~

  1. urls = soup.find_all("a",href=re.compile("https://sra-downloadb.st-va.ncbi.nlm.nih.gov"))
复制代码


直接这样试试看
2020-07-09_175217.png

最佳答案

查看完整内容

直接这样试试看
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

发表于 2020-7-9 17:53:49 | 显示全部楼层    本楼为最佳答案   
wtfitis 发表于 2020-7-9 18:12
目前通过这样解决:
不知道有没有更好的方法~

  1. urls = soup.find_all("a",href=re.compile("https://sra-downloadb.st-va.ncbi.nlm.nih.gov"))
复制代码


直接这样试试看
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

发表于 2020-7-9 18:05:56 | 显示全部楼层
给一个 name 文件里面的内容
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

 楼主| 发表于 2020-7-9 18:11:02 | 显示全部楼层
Twilight6 发表于 2020-7-9 18:05
给一个 name 文件里面的内容

SRR1620826
SRR1620832
SRR1620829
里面都是一行一行类似于这个
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

 楼主| 发表于 2020-7-9 18:12:27 | 显示全部楼层
Twilight6 发表于 2020-7-9 18:05
给一个 name 文件里面的内容

目前通过这样解决:
  1.         targets = soup.find_all("table", class_="geo_zebra run-viewer-download")
  2.         for each in targets:
  3.             g=each.tbody.tr
  4.             cont=g.find_all('td')
  5.             if cont[3].a is None:
  6.                 break
  7.             else:
  8.                 c=cont[3].a.get('href')
  9.                 allurl.append(c)
复制代码

不知道有没有更好的方法~
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

 楼主| 发表于 2020-7-9 18:35:03 | 显示全部楼层

原来正则可以直接塞进去用的吗。。第一次知道
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

发表于 2020-7-9 18:39:16 | 显示全部楼层
wtfitis 发表于 2020-7-9 18:35
原来正则可以直接塞进去用的吗。。第一次知道

哈哈  bs4  和正则搭配着用很强的,你可以去看看bs4官方文档也有举例子
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

 楼主| 发表于 2020-7-9 19:08:11 | 显示全部楼层
Twilight6 发表于 2020-7-9 18:39
哈哈  bs4  和正则搭配着用很强的,你可以去看看bs4官方文档也有举例子

不过我后来看了下 还是标签准一点 因为这是相对位置 我发现有些下载地址不是用那个开头的~正则的效率是高点但是不够全,但是标签的位置肯定是下载地址
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

发表于 2020-7-9 19:09:48 | 显示全部楼层
wtfitis 发表于 2020-7-9 19:08
不过我后来看了下 还是标签准一点 因为这是相对位置 我发现有些下载地址不是用那个开头的~正则的效率是高 ...

那确实,你可以观察下链接,只需要找到一个这种链接共有的字符串,你就可以直接用了
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2025-6-23 07:47

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表