鱼C论坛

 找回密码
 立即注册
查看: 1823|回复: 2

[已解决]python中ASCII码的问题

[复制链接]
发表于 2017-8-21 14:32:47 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
书中14.4案例2:
import urllib.request
import urllib.parse
import re
from bs4 import BeautifulSoup

def main():
    keyword = input("请输入要查询的的关键词:")
    keyword = urllib.parse.urlencode({"word":keyword})
    response = urllib.request.urlopen("http://baike.baidu.com/item/word?%s"% keyword)
    html = response.read()
    soup = BeautifulSoup(html,"html.parser")
   
    #BS
    for each in soup.find_all(href = re.compile("item")):
        content = ''.join([each.text])
        url2 = ''.join(["http://baike.baidu.com",each["href"]])
        response2 =urllib.request.urlopen(url2)
        html2 =response2.read()
        soup2 =BeautifulSoup(html2,"html.parser")
        if soup2.h2:
            content = ''.join([content,soup2.h2.text])
        content = ''.join([content,"——>",url2])
        print(content)

if __name__ == "__main__":
        main()

报错UnicodeEncodeError: 'ascii' codec can't encode characters in position 10-12: ordinal not in range(128)
求解决
最佳答案
2017-8-21 18:56:04
事实证明输英文是没事的,输中文就不对了。所以URL带中文部份进行URL编码就可以了
代码:
  1. import urllib.request
  2. import urllib.parse
  3. import re
  4. from bs4 import BeautifulSoup

  5. def main():
  6.     keyword = input("请输入要查询的的关键词:")
  7.     keyword = urllib.parse.urlencode({"word":keyword})
  8.     response = urllib.request.urlopen("http://baike.baidu.com/item/word?%s"% keyword)
  9.     html = response.read()
  10.     soup = BeautifulSoup(html,"html.parser")
  11.    
  12.     #BS
  13.     for each in soup.find_all(href = re.compile("item")):
  14.         content = ''.join([each.text])
  15.         url2 = ''.join(["http://baike.baidu.com",urllib.parse.quote(each["href"])]) #URL中文编码
  16.         response2 =urllib.request.urlopen(url2)
  17.         html2 =response2.read()
  18.         soup2 =BeautifulSoup(html2,"html.parser")
  19.         if soup2.h2:
  20.             content = ''.join([content,soup2.h2.text])
  21.         content = ''.join([content,"——>",url2])
  22.         print(content)

  23. if __name__ == "__main__":
  24.         main()
复制代码
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

发表于 2017-8-21 18:56:04 | 显示全部楼层    本楼为最佳答案   
事实证明输英文是没事的,输中文就不对了。所以URL带中文部份进行URL编码就可以了
代码:
  1. import urllib.request
  2. import urllib.parse
  3. import re
  4. from bs4 import BeautifulSoup

  5. def main():
  6.     keyword = input("请输入要查询的的关键词:")
  7.     keyword = urllib.parse.urlencode({"word":keyword})
  8.     response = urllib.request.urlopen("http://baike.baidu.com/item/word?%s"% keyword)
  9.     html = response.read()
  10.     soup = BeautifulSoup(html,"html.parser")
  11.    
  12.     #BS
  13.     for each in soup.find_all(href = re.compile("item")):
  14.         content = ''.join([each.text])
  15.         url2 = ''.join(["http://baike.baidu.com",urllib.parse.quote(each["href"])]) #URL中文编码
  16.         response2 =urllib.request.urlopen(url2)
  17.         html2 =response2.read()
  18.         soup2 =BeautifulSoup(html2,"html.parser")
  19.         if soup2.h2:
  20.             content = ''.join([content,soup2.h2.text])
  21.         content = ''.join([content,"——>",url2])
  22.         print(content)

  23. if __name__ == "__main__":
  24.         main()
复制代码
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 1 反对 0

使用道具 举报

 楼主| 发表于 2017-8-21 20:17:05 | 显示全部楼层
ba21 发表于 2017-8-21 18:56
事实证明输英文是没事的,输中文就不对了。所以URL带中文部份进行URL编码就可以了
代码:

谢谢大佬
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2026-3-1 17:50

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表