鱼C论坛

 找回密码
 立即注册
查看: 2151|回复: 4

[已解决]使用for对多个url进行爬取时,如何跳过其中无法访问的url

[复制链接]
发表于 2020-12-24 15:17:53 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
本帖最后由 三一王 于 2020-12-24 16:02 编辑

如题。

源码如下:
import urllib.request


def url_open(url):
    req = urllib.request.Request(url)
    req.add_header('user-agent',
                   'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.122 Safari/537.36')
    response = urllib.request.urlopen(url)
    html = response.read()
    return html


def find_m3u8url(url):
    html = url_open(url).decode('utf-8')
    m3u8url_dict = {}

    url_a = html.find('file: "http:', 0) + 12


    while url_a != -1:

        url_b = html.find('.m3u8', url_a, url_a + 300)
        if url_b != -1:

            # 将带有中文字符的url地址转换为url编码
            m3u8url = 'http:' + urllib.request.quote(html[url_a: url_b]) + '.m3u8'
            print(m3u8url)

            m3u8url_dict[html[url_a: url_b]] = m3u8url


        break

    return m3u8url_dict


def save(m3u8url_dict):

    for each in m3u8url_dict:

        word = m3u8url_dict[each]

        with open('m3u8urls.txt','a') as f:
            f.write(each)
            f.write('\n')
            f.write(word)
            f.write('\n')
            f.write('\n')



with open('edu_urls.txt','rb') as f:

    for url in f:
        url_open(url)

        m3u8url_dict = find_m3u8url(url)
        save(m3u8url_dict)


在代码最后执行的这一步:
with open('edu_urls.txt','rb') as f:

    for url in f:
        url_open(url)
        ai_dict = find_m3u8url(url)
        save(m3u8url_dict)
因为文件“edu_urls.txt”中存在无法访问的url。
在执行时,如何跳过因无法访问而报错的url,继续对下个url进行操作?


恳求ing~~~~~
最佳答案
2020-12-24 15:45:37
url_open(url):
使用 try
...
except...
失败返回False
或者直接 pass
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2020-12-24 15:45:37 | 显示全部楼层    本楼为最佳答案   
url_open(url):
使用 try
...
except...
失败返回False
或者直接 pass
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 1 反对 0

使用道具 举报

 楼主| 发表于 2020-12-24 16:00:25 | 显示全部楼层
Cool_Breeze 发表于 2020-12-24 15:45
url_open(url):
使用 try
...
with open('edu_urls.txt','rb') as f:

    for url in f:
        try:
            url_open(url)

            m3u8url_dict = find_m3u8url(url)
            save(m3u8url_dict)
        except:
            pass

是这样么,但是没有结果诶
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2020-12-24 16:16:51 | 显示全部楼层
找到问题了 ,多谢~~~
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-12-24 16:18:13 | 显示全部楼层
三一王 发表于 2020-12-24 16:00
是这样么,但是没有结果诶
def url_open(url):
    req = urllib.request.Request(url)
    req.add_header('user-agent',
                   'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.122 Safari/537.36')
    try:
        response = urllib.request.urlopen(url)
    except Exception:
        print(f'{url} Fail')
        return None
    html = response.read()
    return html
def find_m3u8url(url):
    html = url_open(url).decode('utf-8')
    if html is None: return None
    m3u8url_dict = {}

    url_a = html.find('file: "http:', 0) + 12


    while url_a != -1:

        url_b = html.find('.m3u8', url_a, url_a + 300)
        if url_b != -1:

            # 将带有中文字符的url地址转换为url编码
            m3u8url = 'http:' + urllib.request.quote(html[url_a: url_b]) + '.m3u8'
            print(m3u8url)

            m3u8url_dict[html[url_a: url_b]] = m3u8url


        break

    return m3u8url_dict
with open('edu_urls.txt','rb') as f:

    for url in f:
        url_open(url)
        ai_dict = find_m3u8url(url)
        if ai_dict is None: contiune
        save(m3u8url_dict)
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2025-1-17 01:16

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表