鱼C论坛

 找回密码
 立即注册
查看: 1432|回复: 10

[已解决]爬虫编码解码后为英文的问题救助

[复制链接]
发表于 2020-7-24 16:03:32 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
本帖最后由 937135952 于 2020-7-25 20:37 编辑

代码:
import requests  
from bs4 import BeautifulSoup


def JinRuYeMian(wangzi):
    html = wangzi

    headers = {
    'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.138 Safari/537.36',
    'Accept':'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8',
    'Accept-Language':'en-US,en;q=0.5',
    'Accept-Encoding':'gzip',
    'DNT':'1',
    'Connection':'close'
    }

    page = requests.get(html,headers=headers)
   
    soup_obj=BeautifulSoup(page.content,'html.parser')
     
    txt_content = soup_obj.find(id = 'mainNewsContent')
    jiema = txt_content.encode('GB2312')
    jiema2 = jiema.decode('GB2312')
   
   
    print(jiema2)

    c=int(1)
    file_name = str(c) +'攻略' +'.txt'
    with open(file_name,'w') as temp:

        temp.write(str(jiema.decode('GB2312')))

        
    print('攻略'+file_name+'已经完成下载')
        
    c = c+1
   


if __name__ =='__main__':
    JinRuYeMian('https://3gmfw.cn//article/html2/2020/04/26/523599.html')
   
   
   



输出结果:
<li><span class="list-icon2">11</span><a href="/article/html2/2020/04/26/523590.html" title="°&#217;±&#228;&#180;ó&#213;ì&#204;&#189;&#192;&#199;&#200;&#203;&#214;&#174;&#209;&#170;&#208;×&#202;&#214;&#202;&#199;&#203;&#173;&#163;&#191; °&#217;±&#228;&#180;ó&#213;ì&#204;&#189;&#192;&#199;&#200;&#203;&#214;&#174;&#209;&#170;&#185;&#165;&#194;&#212;">°&#217;±&#228;&#180;ó&#213;ì&#204;&#189;&#192;&#199;&#200;&#203;&#214;&#174;&#209;&#170;&#208;×&#202;&#214;&#202;&#199;&#203;&#173;&#163;&#191; °&#217;±&#228;&#180;ó&#213;ì&#204;&#189;&#192;&#199;&#200;&#203;&#214;&#174;&#209;&#170;&#185;&#165;&#194;&#212;</a></li>
<li><span class="list-icon2">12</span><a href="/article/html2/2020/04/26/523589.html" title="°&#217;±&#228;&#180;ó&#213;ì&#204;&#189;&#212;&#161;&#187;&#240;&#208;×&#202;&#214;&#202;&#199;&#203;&#173;&#163;&#191; °&#217;±&#228;&#180;ó&#213;ì&#204;&#189;&#212;&#161;&#187;&#240;&#185;&#165;&#194;&#212;">°&#217;±&#228;&#180;ó&#213;ì&#204;&#189;&#212;&#161;&#187;&#240;&#208;×&#202;&#214;&#202;&#199;&#203;&#173;&#163;&#191; °&#217;±&#228;&#180;ó&#213;ì&#204;&#189;&#212;&#161;&#187;&#240;&#185;&#165;&#194;&#212;</a></li>


网页内容为中文,我想把它爬下来,但是不知道转换成了这种字符串咋解决,求大佬指教
最佳答案
2020-7-26 20:13:00
本帖最后由 suchocolate 于 2020-7-26 20:15 编辑

soup不太熟,试试xpath。
import requests
from lxml import etree


def main(url):
    headers = {'User-Agent': 'firefox'}
    r = requests.get(url, headers=headers)
    r.encoding = 'gbk'
    html = etree.HTML(r.text)
    result = html.xpath('//div[@id="mainNewsContent"]/p/text()')
    print(result)


if __name__ == '__main__':
    main('https://3gmfw.cn/article/html2/2020/04/26/523599.html')
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2020-7-24 17:12:01 | 显示全部楼层
本帖最后由 xiaosi4081 于 2020-7-24 17:13 编辑
txt_content = soup_obj.find(id = 'mainNewsContent')
jiema = txt_content.encode('utf-8')
jiema2 = jiema.decode('utf-8')

print(jiema2)


c=1
file_name = str(c)  +'.txt'
with open(file_name,'w') as temp:
        temp.write(str(jiema.decode('utf-8')))
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-7-24 17:41:27 | 显示全部楼层


请发下完整代码
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-7-24 20:08:38 | 显示全部楼层
这个不叫英文,这个叫html编码格式。
发完整代码,让我们确认一下网站使用的编码,在决定encode格式。
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2020-7-25 20:37:59 | 显示全部楼层

好嘞,谢谢各位
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2020-7-25 20:38:30 | 显示全部楼层
suchocolate 发表于 2020-7-24 20:08
这个不叫英文,这个叫html编码格式。
发完整代码,让我们确认一下网站使用的编码,在决定encode格式。

好嘞,谢谢各位

代码:
import requests  
from bs4 import BeautifulSoup


def JinRuYeMian(wangzi):
    html = wangzi

    headers = {
    'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.138 Safari/537.36',
    'Accept':'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8',
    'Accept-Language':'en-US,en;q=0.5',
    'Accept-Encoding':'gzip',
    'DNT':'1',
    'Connection':'close'
    }

    page = requests.get(html,headers=headers)
   
    soup_obj=BeautifulSoup(page.content,'html.parser')
     
    txt_content = soup_obj.find(id = 'mainNewsContent')
    jiema = txt_content.encode('GB2312')
    jiema2 = jiema.decode('GB2312')
   
   
    print(jiema2)

    c=int(1)
    file_name = str(c) +'攻略' +'.txt'
    with open(file_name,'w') as temp:

        temp.write(str(jiema.decode('GB2312')))

        
    print('攻略'+file_name+'已经完成下载')
        
    c = c+1
   


if __name__ =='__main__':
    JinRuYeMian('https://3gmfw.cn//article/html2/2020/04/26/523599.html')
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2020-7-25 20:40:12 | 显示全部楼层

好像不太行,我发了全部代码...要不再看看?
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-7-26 20:13:00 | 显示全部楼层    本楼为最佳答案   
本帖最后由 suchocolate 于 2020-7-26 20:15 编辑

soup不太熟,试试xpath。
import requests
from lxml import etree


def main(url):
    headers = {'User-Agent': 'firefox'}
    r = requests.get(url, headers=headers)
    r.encoding = 'gbk'
    html = etree.HTML(r.text)
    result = html.xpath('//div[@id="mainNewsContent"]/p/text()')
    print(result)


if __name__ == '__main__':
    main('https://3gmfw.cn/article/html2/2020/04/26/523599.html')
1.png
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2020-7-27 16:22:25 | 显示全部楼层
谢啦
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

 楼主| 发表于 2020-7-28 16:30:11 | 显示全部楼层
suchocolate 发表于 2020-7-26 20:13
soup不太熟,试试xpath。

    result = html.xpath('//div[@id="mainNewsContent"]/p/text()')
这里面/p是什么意思阿....就同一个网站里我换了个网址运行的结果就是空白了
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-7-28 16:46:55 | 显示全部楼层
937135952 发表于 2020-7-28 16:30
result = html.xpath('//div[@id="mainNewsContent"]/p/text()')
这里面/p是什么意思阿....就同一个 ...

这个贴子的网页结果,小说的内容在div的p节点的下面,所以选p。
换了网页得研究新网页的html结构,爬虫就是这样,自己的需求得自己定制。
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2025-1-19 17:16

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表