鱼C论坛

 找回密码
 立即注册
查看: 1184|回复: 10

[已解决]关于爬虫读取html标签的疑问~请大家帮忙看看,谢谢!

[复制链接]
发表于 2019-4-19 08:25:37 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
本帖最后由 wrpython 于 2019-4-19 08:35 编辑

先贴上要请教的代码:
  1. import requests
  2. import bs4
  3. res = requests.get('https://movie.douban.com/top250')
  4. soup = bs4.BeautifulSoup(res.text,'html.parser')
  5. targets = soup.find_all('div',class_='hd')
  6. for each in targets:
  7.     print(each.a.span.text)
复制代码
这是小甲鱼视频《爬取豆瓣TOP250电影排行榜》 中的代码。对于最后一段代码“print(each.a.span.text)”, 我有个疑问。

我在查看了这个网页中对应元素时发现<div class="hd">下面不仅仅只有一个span,而是有3个span,详见截图

                               
登录/注册后可看大图

我们在输出时只输出了<span class=''title''>这部分内容,如果我要输出另外两个span的话应该如何修改代码呢???

最佳答案
2019-4-19 09:38:00
本帖最后由 wp231957 于 2019-4-19 09:50 编辑
  1. # coding: utf-8
  2. import requests
  3. from lxml import etree


  4. if __name__ == '__main__':
  5.   url="https://movie.douban.com/top250"
  6.   response = etree.HTML(requests.get(url=url).text)
  7.   rlen = response.xpath("//div[@class='article']/ol/li")
  8.   for i in range(1,len(rlen)+1):
  9.     ls=[]
  10.     for j in range(1,4):
  11.       path1 = response.xpath("//div[@class='article']/ol/li[%d]/div/div[2]/div[1]/a/span[%d]"%(i,j))
  12.       try:
  13.         out = "".join(path1[0].text.split())  #去除\Xa0 或是 &nbsp;
  14.         ls.append(out)
  15.       except:   
  16.         continue
  17.     print(ls)      
复制代码
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2019-4-19 08:30:20 | 显示全部楼层
soup =  ???
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2019-4-19 08:30:40 | 显示全部楼层
哦,我现在还不能上传图片,我复制html的元素在这里吧.
<span class="title">肖申克的救赎</span>
<span class="title>/The Shawshank Redemption</span>
<span class="other">/月黑高飞(港)  /  刺激1995(台)</span>

我们输出的语句只输出了肖申克的救赎,如果我要输出英文名和港台名应该如何修改代码呢?
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2019-4-19 08:35:37 | 显示全部楼层

soup = bs4.BeautifulSoup(res.text,'html.parser')

不知道怎么格式不正确了...
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2019-4-19 08:39:09 | 显示全部楼层
使用xpath吧  
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2019-4-19 09:38:00 | 显示全部楼层    本楼为最佳答案   
本帖最后由 wp231957 于 2019-4-19 09:50 编辑
  1. # coding: utf-8
  2. import requests
  3. from lxml import etree


  4. if __name__ == '__main__':
  5.   url="https://movie.douban.com/top250"
  6.   response = etree.HTML(requests.get(url=url).text)
  7.   rlen = response.xpath("//div[@class='article']/ol/li")
  8.   for i in range(1,len(rlen)+1):
  9.     ls=[]
  10.     for j in range(1,4):
  11.       path1 = response.xpath("//div[@class='article']/ol/li[%d]/div/div[2]/div[1]/a/span[%d]"%(i,j))
  12.       try:
  13.         out = "".join(path1[0].text.split())  #去除\Xa0 或是 &nbsp;
  14.         ls.append(out)
  15.       except:   
  16.         continue
  17.     print(ls)      
复制代码
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2019-4-19 09:57:38 | 显示全部楼层
  1. each.a.get_text()
复制代码
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2019-4-19 10:05:12 | 显示全部楼层
第五行改成targets = soup.find_all('div')试试
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2019-4-20 10:40:11 | 显示全部楼层
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2019-4-20 11:20:28 | 显示全部楼层

十分感谢,这样也能取出全部的内容;-)
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2019-4-20 11:22:52 | 显示全部楼层
cwhsmile 发表于 2019-4-19 10:05
第五行改成targets = soup.find_all('div')试试

这样不行哦,会报错

Traceback (most recent call last):
  File "C:\Users\WENrui\Desktop\Python\pachong-top250.py", line 36, in <module>
    print(each.a.span.text)
AttributeError: 'NoneType' object has no attribute 'text'
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2024-4-24 07:44

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表