鱼C论坛

 找回密码
 立即注册
查看: 2614|回复: 10

[已解决]明明我原封不动地把例题打下来还是会报错?

[复制链接]
发表于 2020-1-27 17:52:51 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
import urllib.request
import urllib.parse
import re
from bs4 import BeautifulSoup
def main() :
    keyword = input("请输入关键字")
    keyword = urllib.parse.urlencode({'word':keyword})
    response = urllib.request.urlopen('http://baike.baidu.com/search/word?%s'%keyword)
    html = response.read().decode()
    soup = BeautifulSoup(html,'html.parser')
    for each in soup.find_all(href = re.compile('view')) :
        content = ''.join([each.text])
        url2 = ''.join(['http://baike.baidu.com',each['href']])
        response2 = urllib.request.urlopen(url2)
        html2 = response2.read()
        soup2 = BeautifulSoup(html2,'html.parser')
        if soup2.h2 :
            content = ''.join([content,'->',url2])   
        print(content)




if __name__ == '__main__' :
    main()

我按照课后题原文输入,为什么还是报错:
UnicodeEncodeError: 'ascii' codec can't encode characters in position 36-39: ordinal not in range(128)
最佳答案
2020-1-30 12:27:14
import urllib.request
import urllib.parse
import re
from bs4 import BeautifulSoup

def main():
    keyword = input("请输入关键词:")
    keyword = urllib.parse.urlencode({"word":keyword})

    url = "http://baike.baidu.com/search/word?{0}".format(keyword)
    # print('[url] --> {0}'.format(url))
    
    response = urllib.request.urlopen(url)
    html = response.read()
    soup = BeautifulSoup(html, "html.parser")

    for each in soup.find_all(href=re.compile("view")):
        content = ''.join([each.text])

        root_url = "http://baike.baidu.com"
        href_url = each["href"]        
        url2 = urllib.parse.urljoin(root_url, href_url)        
        # print('[url2] --> {0}'.format(url2))

        url2 = urllib.parse.quote(url2, safe=':/?#&')
        
        response2 = urllib.request.urlopen(url2)
        html2 = response2.read()
        soup2 = BeautifulSoup(html2, "html.parser")
        if soup2.h2:
            content = ''.join([content, soup2.h2.text])

        decode_url = urllib.parse.unquote(url2)
        decode_url = urllib.parse.unquote(decode_url)
            
        content = ''.join([content, " -> ", decode_url])
        print(content)

if __name__ == "__main__":
    main()
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2020-1-27 20:43:49 | 显示全部楼层
输入的是中文?编码好像有问题
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2020-1-27 23:52:41 | 显示全部楼层
shake_a_tree@16 发表于 2020-1-27 20:43
输入的是中文?编码好像有问题

不是吖,问题是出现在第二个urlopen上的,其他的我试了,都是没问题的。但我不知道为什么第二个urlopen会出错。
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-1-28 11:40:13 From FishC Mobile | 显示全部楼层
1  这个错误是由编码格式引起
2  现在几乎没有人用urllib这个模块了
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-1-28 19:52:26 | 显示全部楼层
dweiyuan 发表于 2020-1-27 23:52
不是吖,问题是出现在第二个urlopen上的,其他的我试了,都是没问题的。但我不知道为什么第二个urlopen会 ...

urlopen会转码的,所以出问题了
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-1-30 12:27:14 | 显示全部楼层    本楼为最佳答案   
import urllib.request
import urllib.parse
import re
from bs4 import BeautifulSoup

def main():
    keyword = input("请输入关键词:")
    keyword = urllib.parse.urlencode({"word":keyword})

    url = "http://baike.baidu.com/search/word?{0}".format(keyword)
    # print('[url] --> {0}'.format(url))
    
    response = urllib.request.urlopen(url)
    html = response.read()
    soup = BeautifulSoup(html, "html.parser")

    for each in soup.find_all(href=re.compile("view")):
        content = ''.join([each.text])

        root_url = "http://baike.baidu.com"
        href_url = each["href"]        
        url2 = urllib.parse.urljoin(root_url, href_url)        
        # print('[url2] --> {0}'.format(url2))

        url2 = urllib.parse.quote(url2, safe=':/?#&')
        
        response2 = urllib.request.urlopen(url2)
        html2 = response2.read()
        soup2 = BeautifulSoup(html2, "html.parser")
        if soup2.h2:
            content = ''.join([content, soup2.h2.text])

        decode_url = urllib.parse.unquote(url2)
        decode_url = urllib.parse.unquote(decode_url)
            
        content = ''.join([content, " -> ", decode_url])
        print(content)

if __name__ == "__main__":
    main()
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2020-2-3 21:30:44 | 显示全部楼层
wp231957 发表于 2020-1-28 11:40
1  这个错误是由编码格式引起
2  现在几乎没有人用urllib这个模块了

请问,现在用什么获取网络请求比较方便
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2020-2-4 18:11:06 | 显示全部楼层

请问,urllib.parse.quote() 函数的safe参数怎么使用
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-2-4 21:31:41 From FishC Mobile | 显示全部楼层
safe参数指定的字符串中包含的字符不会被转换
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2020-2-5 17:57:25 | 显示全部楼层
XiaoPaiShen 发表于 2020-2-4 21:31
safe参数指定的字符串中包含的字符不会被转换

谢谢。
但是?#/之类的符号不就本来就是ASCII字符吗,为什么还要把它们放在safe里?
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-2-6 04:36:27 | 显示全部楼层
dweiyuan 发表于 2020-2-5 17:57
谢谢。
但是?#/之类的符号不就本来就是ASCII字符吗,为什么还要把它们放在safe里?

在url中,#/ 会被编码的,
#:%2f   
/:%23

如果不想被编码,就把不想编码的字符赋給 safe
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2024-11-17 21:53

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表