鱼C论坛

 找回密码
 立即注册
查看: 1448|回复: 8

[已解决]bs4如何爬取第二个子标签里面的内容

[复制链接]
发表于 2020-7-9 17:53:48 | 显示全部楼层 |阅读模式
30鱼币
import requests
import bs4
import re


def open_url(url):
    # 使用代理
    # proxies = {"http": "127.0.0.1:1080", "https": "127.0.0.1:1080"}
    headers = {
        'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/57.0.2987.98 Safari/537.36'}

    # res = requests.get(url, headers=headers, proxies=proxies)
    res = requests.get(url, headers=headers)

    return res






def main():
    ff=open('name.txt','r')
    allurl=[]
    for i in ff.readlines():
        host = "https://trace.ncbi.nlm.nih.gov/Traces/sra/?run="+i
        res = open_url(host)
        soup = bs4.BeautifulSoup(res.text, 'html.parser')
        targets = soup.find_all("table", class_="geo_zebra run-viewer-download")
        for each in targets:
            if each.tbody.tr.td[4].a['href'] is not None:
                g=each.tbody.tr.td[4].a.get('href')
                allurl.append(g)


    with open("allurl.txt", "w", encoding="utf-8") as f:
        f.writelines([j+'\n' for j in allurl])


if __name__ == "__main__":
    main()

我想要提取图片里面 第四个td下面的链接 但是我不知道怎么做
最佳答案
2020-7-9 17:53:49
wtfitis 发表于 2020-7-9 18:12
目前通过这样解决:
不知道有没有更好的方法~

urls = soup.find_all("a",href=re.compile("https://sra-downloadb.st-va.ncbi.nlm.nih.gov"))

直接这样试试看
2020-07-09_175217.png

最佳答案

查看完整内容

直接这样试试看
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2020-7-9 17:53:49 | 显示全部楼层    本楼为最佳答案   
wtfitis 发表于 2020-7-9 18:12
目前通过这样解决:
不知道有没有更好的方法~

urls = soup.find_all("a",href=re.compile("https://sra-downloadb.st-va.ncbi.nlm.nih.gov"))

直接这样试试看
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2020-7-9 18:05:56 | 显示全部楼层
给一个 name 文件里面的内容
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

 楼主| 发表于 2020-7-9 18:11:02 | 显示全部楼层
Twilight6 发表于 2020-7-9 18:05
给一个 name 文件里面的内容

SRR1620826
SRR1620832
SRR1620829
里面都是一行一行类似于这个
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

 楼主| 发表于 2020-7-9 18:12:27 | 显示全部楼层
Twilight6 发表于 2020-7-9 18:05
给一个 name 文件里面的内容

目前通过这样解决:
        targets = soup.find_all("table", class_="geo_zebra run-viewer-download")
        for each in targets:
            g=each.tbody.tr
            cont=g.find_all('td')
            if cont[3].a is None:
                break
            else:
                c=cont[3].a.get('href')
                allurl.append(c)
不知道有没有更好的方法~
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

 楼主| 发表于 2020-7-9 18:35:03 | 显示全部楼层

原来正则可以直接塞进去用的吗。。第一次知道
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2020-7-9 18:39:16 | 显示全部楼层
wtfitis 发表于 2020-7-9 18:35
原来正则可以直接塞进去用的吗。。第一次知道

哈哈  bs4  和正则搭配着用很强的,你可以去看看bs4官方文档也有举例子
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

 楼主| 发表于 2020-7-9 19:08:11 | 显示全部楼层
Twilight6 发表于 2020-7-9 18:39
哈哈  bs4  和正则搭配着用很强的,你可以去看看bs4官方文档也有举例子

不过我后来看了下 还是标签准一点 因为这是相对位置 我发现有些下载地址不是用那个开头的~正则的效率是高点但是不够全,但是标签的位置肯定是下载地址
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2020-7-9 19:09:48 | 显示全部楼层
wtfitis 发表于 2020-7-9 19:08
不过我后来看了下 还是标签准一点 因为这是相对位置 我发现有些下载地址不是用那个开头的~正则的效率是高 ...

那确实,你可以观察下链接,只需要找到一个这种链接共有的字符串,你就可以直接用了
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2025-1-20 01:51

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表