鱼C论坛

 找回密码
 立即注册
查看: 1581|回复: 5

[已解决]python爬虫

[复制链接]
发表于 2021-7-17 20:31:16 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
本帖最后由 c皮皮o 于 2021-7-17 20:36 编辑
list1=["<p>滚滚长江东逝水,浪花淘尽英雄。是非成败转头空。</p>","<p>青山依旧在,几度夕阳红。</p>"]
list1是一个<class 'bs4.element.ResultSet'>类型,
我用text,get_text(),string,都用了,但提示我这是标签集合没有上述的方法。
想请教大佬们,如何将这种类型的用字符串的形式打印出来(就是把 p标签给去掉,直接输出字符串)

附上代码:
import urllib.request
from bs4 import BeautifulSoup
url1="http://www.newxue.com/gkmz/sgyy/"
objects=urllib.request.Request(url1)
objects.add_header("User-Agent","Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36 Edg/91.0.864.67")
response=urllib.request.urlopen(objects)
html_content=response.read().decode("gbk")
soup1=BeautifulSoup(html_content,"lxml")
file=soup1.select(".xslttext>ul>li")
del file[0]
for each in file:
    each_chapter=each.string
    url2 = each.a["href"]
    each_content = urllib.request.Request(url2)
    each_content.add_header("User-Agent",
                            "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36 Edg/91.0.864.67")
    each_content1 = urllib.request.urlopen(each_content)
    each_content1 = each_content1.read().decode("gbk")
    soup2 = BeautifulSoup(each_content1, "lxml")
    p = soup2.select("#dashu_text>p")
    print(type(p))
最佳答案
2021-7-17 20:37:50
本帖最后由 qq1151985918 于 2021-7-17 20:59 编辑

你这个就用替换吧,也省事。
list1 = ["<p>滚滚长江东逝水,浪花淘尽英雄。是非成败转头空。</p>", "<p>青山依旧在,几度夕阳红。</p>"]

for each in list1:
    print(each.replace("<p>", "").replace("</p>", ""))


你刚刚没有代码吧,你的方法用的是不对的,text, get_text(), string  不是对 p 这个列表用,而是对里面的元素用
看例子
for each in p:
    print(each.text)

for each in p:
    print(each.get_text())

for each in p:
    print(each.string)
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2021-7-17 20:37:50 | 显示全部楼层    本楼为最佳答案   
本帖最后由 qq1151985918 于 2021-7-17 20:59 编辑

你这个就用替换吧,也省事。
list1 = ["<p>滚滚长江东逝水,浪花淘尽英雄。是非成败转头空。</p>", "<p>青山依旧在,几度夕阳红。</p>"]

for each in list1:
    print(each.replace("<p>", "").replace("</p>", ""))


你刚刚没有代码吧,你的方法用的是不对的,text, get_text(), string  不是对 p 这个列表用,而是对里面的元素用
看例子
for each in p:
    print(each.text)

for each in p:
    print(each.get_text())

for each in p:
    print(each.string)
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2021-7-17 20:50:09 | 显示全部楼层
遍历list1,得到每一个p标签,p.text获取p标签的文本内容
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2021-7-17 20:53:02 | 显示全部楼层
import urllib.request
from bs4 import BeautifulSoup
url1="http://www.newxue.com/gkmz/sgyy/"
objects=urllib.request.Request(url1)
objects.add_header("User-Agent","Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36 Edg/91.0.864.67")
response=urllib.request.urlopen(objects)
html_content=response.read().decode("gbk")
soup1=BeautifulSoup(html_content,"lxml")
file=soup1.select(".xslttext>ul>li")
del file[0]
for each in file:
    each_chapter=each.string
    url2 = each.a["href"]
    each_content = urllib.request.Request(url2)
    each_content.add_header("User-Agent",
                            "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36 Edg/91.0.864.67")
    each_content1 = urllib.request.urlopen(each_content)
    each_content1 = each_content1.read().decode("gbk")
    soup2 = BeautifulSoup(each_content1, "lxml")
    soup2
    p = soup2.select("#dashu_text>p")
    str = ""
    for each_p in p:
        # print(each_p.text)
        str += each_p.text
        str += '\n'  # 让结果好看些
    print(str)
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2021-7-17 20:54:13 | 显示全部楼层
King丨小义 发表于 2021-7-17 20:50
遍历list1,得到每一个p标签,p.text获取p标签的文本内容

牛批啊,我这脑子太蠢了
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2021-7-17 20:56:42 | 显示全部楼层
本帖最后由 qq1151985918 于 2021-7-17 21:00 编辑

你刚刚没有代码吧,你的方法用的是不对的,text, get_text(), string  不是对 p 这个列表用,而是对里面的元素用
看例子
for each in p:
    print(each.text)

for each in p:
    print(each.get_text())

for each in p:
    print(each.string)
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2025-1-14 01:24

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表