鱼C论坛

 找回密码
 立即注册
查看: 10939|回复: 42

[已解决]求解惑

[复制链接]
回帖奖励 6 鱼币 回复本帖可获得 2 鱼币奖励! 每人限 1 次(中奖概率 20%)
发表于 2021-12-28 16:00:03 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
本帖最后由 myqf123 于 2021-12-28 16:01 编辑
  1. import urllib.request
  2. import urllib.parse
  3. import re
  4. from bs4 import BeautifulSoup
  5. import random
  6. import time

  7. def main():
  8. ##    keyword = input("请输入关键词:")
  9.     keyword = urllib.parse.urlencode({"word":'猪八戒'})
  10.    
  11.     url = ("http://baike.baidu.com/search/word?%s" % keyword)
  12.     iplist = ['113.28.90.67:9480']
  13.     proxy_support = urllib.request.ProxyHandler({'http':random.choice(iplist)})
  14.     opener = urllib.request.build_opener(proxy_support)
  15.     opener.addheaders = [('User-Agent','Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.198 Safari/537.36')]
  16.     urllib.request.install_opener(opener)
  17.    
  18.     response = urllib.request.urlopen(url)
  19.     html = response.read().decode('UTF-8')
  20.     soup = BeautifulSoup(html,"html.parser")

  21.     for each in soup.find_all(href=re.compile("view")):
  22.         content = ''.join([each.text])
  23.         url2 = ''.join(["http://baike.baidu.com",each["href"]])
  24.         
  25.         response2 = urllib.request.urlopen(url2)
  26.         html2 = response2.read().decode('UTF-8')
  27.         soup2 = BeautifulSoup(html2,"html.parser")            #从网页抓取数据
  28.         if soup2:
  29.             content = ''.join([content, soup2.h2.text])
  30.         content = ''.join([content, " -> ", url2])
  31.         print(content)
  32.         time.sleep(3)

  33. if __name__ == "__main__":
  34.     main()
复制代码



运行结果总是:UnicodeEncodeError: 'ascii' codec can't encode characters in position 58-61: ordinal not in range(128)
求问题出在哪里了?
最佳答案
2021-12-30 10:21:14
本帖最后由 伏惜寒 于 2021-12-30 10:31 编辑

问题1:urllib这个模块其实已经有点过时了,不推荐在现在的环境中使用,如果要学爬虫,建议用requests库

问题2:urllib.request.urlopen(url2)这个方法不支持中文url,这是你代码中打印出来的url,可以看到第二个url包含中文,这个方法无法解析,需要对中文进行转码
  1. 1http://baike.baidu.com/search/word?word=%E7%8C%AA%E5%85%AB%E6%88%92
  2. 2http://baike.baidu.com/wikicategory/view?categoryName=恐龙大全
复制代码

使用这个方法转码urllib.parse.quote("恐龙大全")

问题3:后面的信息获取也写错了,因为不知道你要什么信息,我就没改了,你自己看着玩吧。
  1. import urllib.request
  2. import urllib.parse
  3. import re
  4. from bs4 import BeautifulSoup
  5. import random
  6. import time

  7. def main():
  8. ##    keyword = input("请输入关键词:")
  9.     keyword = urllib.parse.urlencode({"word":'猪八戒'})
  10.    
  11.     url = ("http://baike.baidu.com/search/word?%s" % keyword)
  12.     iplist = ['113.28.90.67:9480']
  13.     proxy_support = urllib.request.ProxyHandler({'http':random.choice(iplist)})
  14.     opener = urllib.request.build_opener(proxy_support)
  15.     opener.addheaders = [('User-Agent','Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.198 Safari/537.36')]
  16.     urllib.request.install_opener(opener)
  17.     print(url)
  18.     response = urllib.request.urlopen(url)
  19.     html = response.read().decode('UTF-8')
  20.     soup = BeautifulSoup(html,"html.parser")

  21.     for each in soup.find_all(href=re.compile("view")):
  22.         content = ''.join([each.text])
  23.         #对中文字符进行转码
  24.         href = urllib.parse.quote(each["href"])
  25.         #urllib.request.urlopen中只有转码后的中文才能作为参数传入进去
  26.         url2 = ''.join(["http://baike.baidu.com",href])
  27.         print(url2)
  28.         response2 = urllib.request.urlopen(url2)
  29.         html2 = response2.read().decode('UTF-8')
  30.         soup2 = BeautifulSoup(html2,"html.parser")            #从网页抓取数据
  31.         if soup2:
  32.             #soup2是返回的网页信息,content是"恐龙百科"
  33.             #.join([content, soup2.h2.text])这个方法写错了
  34.             #我不知道你要什么信息所以后面我没改了
  35.             content = ''.join([content, soup2.h2.text])
  36.         content = ''.join([content, " -> ", url2])
  37.         print(content)
  38.         time.sleep(3)

  39. if __name__ == "__main__":
  40.     main()
复制代码


备注:建议你学习lxml模块+requests模块,一般的爬虫这两个模块就能解决了,比你用的模块容易很多
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2021-12-29 08:30:20 | 显示全部楼层
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2021-12-29 13:42:39 | 显示全部楼层
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2021-12-29 13:55:07 | 显示全部楼层
抱歉,不会,帮顶
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2021-12-29 13:56:39 | 显示全部楼层

回帖奖励 +2 鱼币

抱歉,不会,帮顶,顺便领鱼币
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2021-12-29 14:55:21 | 显示全部楼层

回帖奖励 +2 鱼币

想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2021-12-29 15:06:27 | 显示全部楼层
  1. iplist = ['113.28.90.67:9480']
  2. # 改成
  3. iplist = [['113.28.90.67:9480'] ]
复制代码
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2021-12-29 21:10:40 | 显示全部楼层

抱歉,不会,帮顶,顺便领鱼币
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2021-12-29 21:11:14 | 显示全部楼层
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

 楼主| 发表于 2021-12-29 23:20:10 | 显示全部楼层
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2021-12-29 23:20:41 | 显示全部楼层
AdiosSpike 发表于 2021-12-29 13:55
抱歉,不会,帮顶

谢谢
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2021-12-29 23:21:11 | 显示全部楼层
zhsguitar 发表于 2021-12-29 21:10
抱歉,不会,帮顶,顺便领鱼币

谢谢
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2021-12-30 08:37:29 | 显示全部楼层
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2021-12-30 10:17:04 | 显示全部楼层

我是帮你排错,不是帮你管代理有没有用的问题。
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2021-12-30 10:21:14 | 显示全部楼层    本楼为最佳答案   
本帖最后由 伏惜寒 于 2021-12-30 10:31 编辑

问题1:urllib这个模块其实已经有点过时了,不推荐在现在的环境中使用,如果要学爬虫,建议用requests库

问题2:urllib.request.urlopen(url2)这个方法不支持中文url,这是你代码中打印出来的url,可以看到第二个url包含中文,这个方法无法解析,需要对中文进行转码
  1. 1http://baike.baidu.com/search/word?word=%E7%8C%AA%E5%85%AB%E6%88%92
  2. 2http://baike.baidu.com/wikicategory/view?categoryName=恐龙大全
复制代码

使用这个方法转码urllib.parse.quote("恐龙大全")

问题3:后面的信息获取也写错了,因为不知道你要什么信息,我就没改了,你自己看着玩吧。
  1. import urllib.request
  2. import urllib.parse
  3. import re
  4. from bs4 import BeautifulSoup
  5. import random
  6. import time

  7. def main():
  8. ##    keyword = input("请输入关键词:")
  9.     keyword = urllib.parse.urlencode({"word":'猪八戒'})
  10.    
  11.     url = ("http://baike.baidu.com/search/word?%s" % keyword)
  12.     iplist = ['113.28.90.67:9480']
  13.     proxy_support = urllib.request.ProxyHandler({'http':random.choice(iplist)})
  14.     opener = urllib.request.build_opener(proxy_support)
  15.     opener.addheaders = [('User-Agent','Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.198 Safari/537.36')]
  16.     urllib.request.install_opener(opener)
  17.     print(url)
  18.     response = urllib.request.urlopen(url)
  19.     html = response.read().decode('UTF-8')
  20.     soup = BeautifulSoup(html,"html.parser")

  21.     for each in soup.find_all(href=re.compile("view")):
  22.         content = ''.join([each.text])
  23.         #对中文字符进行转码
  24.         href = urllib.parse.quote(each["href"])
  25.         #urllib.request.urlopen中只有转码后的中文才能作为参数传入进去
  26.         url2 = ''.join(["http://baike.baidu.com",href])
  27.         print(url2)
  28.         response2 = urllib.request.urlopen(url2)
  29.         html2 = response2.read().decode('UTF-8')
  30.         soup2 = BeautifulSoup(html2,"html.parser")            #从网页抓取数据
  31.         if soup2:
  32.             #soup2是返回的网页信息,content是"恐龙百科"
  33.             #.join([content, soup2.h2.text])这个方法写错了
  34.             #我不知道你要什么信息所以后面我没改了
  35.             content = ''.join([content, soup2.h2.text])
  36.         content = ''.join([content, " -> ", url2])
  37.         print(content)
  38.         time.sleep(3)

  39. if __name__ == "__main__":
  40.     main()
复制代码


备注:建议你学习lxml模块+requests模块,一般的爬虫这两个模块就能解决了,比你用的模块容易很多
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2021-12-30 10:21:41 | 显示全部楼层
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2021-12-30 14:56:33 | 显示全部楼层
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2021-12-30 16:50:04 | 显示全部楼层

回帖奖励 +2 鱼币

BANG
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

 楼主| 发表于 2021-12-30 19:36:43 | 显示全部楼层
伏惜寒 发表于 2021-12-30 10:21
问题1:urllib这个模块其实已经有点过时了,不推荐在现在的环境中使用,如果要学爬虫,建议用requests库

...

content = ''.join([content, soup2.h2.text])这个要怎么改呢,这样做的目的是要关于猪八戒的副标题的内容?

猪八戒

猪八戒
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2021-12-31 09:23:01 | 显示全部楼层
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2024-3-29 16:01

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表