鱼C论坛

 找回密码
 立即注册
查看: 1522|回复: 1

[已解决]新人求问:Python链接爬虫时无法获取链接

[复制链接]
发表于 2017-9-29 14:09:42 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
本人要用链接爬虫爬取b站首页的所有视频链接,定义了get_links()函数获取网页所有链接,再使用正则表达匹配视频链接。
但是运行时,get_links()函数却没有返回值,请教这是哪里出了错误呢?附代码
  1. # !/usr/bin/env python
  2. # -*- coding:utf-8 -*-

  3. import download_url
  4. import re
  5. from urllib import parse

  6. def link_crawler(seed_url, link_regex):
  7.     crawl_queue = [seed_url]
  8.     while crawl_queue:
  9.         url = crawl_queue.pop()
  10.         html = download_url.download_url(url)
  11.         for link in get_links(html):
  12.             if re.match(link_regex, link):
  13.                 link = parse.urljoin(seed_url, link)
  14.                 crawl_queue.append(link)

  15. def get_links(html):
  16.     webpage_regex = re.compile('<a[^>]+href = ["\'](.*?)["\']', re.IGNORECASE)
  17.     return webpage_regex.findall(html)

  18. link_crawler('https://www.bilibili.com/', 'video/av/')
复制代码
最佳答案
2017-9-29 14:17:40
应该是正则不对,在检查下
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

发表于 2017-9-29 14:17:40 | 显示全部楼层    本楼为最佳答案   
应该是正则不对,在检查下
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2026-3-2 18:30

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表