鱼C论坛

 找回密码
 立即注册
查看: 731|回复: 2

不懂就问-爬虫相关

[复制链接]
发表于 2019-4-7 12:00:15 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
爬取豆瓣读书top250,为什么代码只爬到了第205就不爬了

  1. import re
  2. import requests
  3. import csv


  4. headers = {
  5.     "User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:66.0) Gecko/20100101 Firefox/66.0",
  6.     "Referer":"https://book.douban.com/top250?start=50"
  7. }

  8. books = []
  9. for i in range(10):#共10页
  10.     url = "https://book.douban.com/top250?start="+str(i*25)

  11.     response = requests.get(url,headers=headers)
  12.     text = response.content.decode("utf-8")

  13. #所有书的名字
  14.     names = re.findall(r'<div\sclass="pl2">.*?<a.*?>(.*?)</a>',text,re.DOTALL)
  15.     # print(names)
  16.     all_names = []
  17.     for name in names:
  18.         name = name.replace("\n", "").strip()
  19.         beizhu  = re.findall(r"<span.*?>(.*?)</span>",name,re.DOTALL)
  20.         name = re.sub(r"<span.*?>.*?</span>","",name,re.DOTALL).strip()
  21.         if beizhu == []:
  22.             name = name
  23.         else:
  24.             name = name+beizhu[0]
  25.         all_names.append(name)
  26. #所有书的其他名字
  27.     other_names = re.findall(r'<div\sclass="pl2">.*?<a.*?>.*?</a>.*?<span.*?>(.*?)</span>',text,re.DOTALL)
  28. #所有书的作者
  29.     writers = re.findall(r'<div\sclass="pl2">.*?<p\sclass="pl">(.*?)</p>',text,re.DOTALL)
  30. #所有书的评分
  31.     scores = re.findall(r'<div\sclass="star clearfix">.*?<span\sclass="rating_nums">(.*?)</span>',text,re.DOTALL)
  32. #所有书的评价人数
  33.     all_people = []
  34.     people = re.findall(r'<div\sclass="star clearfix">.*?<span\sclass="pl">(.*?)</span>',text,re.DOTALL)
  35.     for each_people in people:
  36.         each_people = each_people.replace("\n","").replace("(","").replace(")","").strip()
  37.         all_people.append(each_people)
  38. #所有书的优美句子
  39.     nice_statments = re.findall(r'<p\sclass="quote"\sstyle=".*?">.*?<span.*?>(.*?)</span>',text,re.DOTALL)

  40. #完成每本书对应数据的整合
  41.     each_books = list(zip(all_names,other_names,writers,scores,all_people,nice_statments))
  42.     for each_book in each_books:
  43.         all_names,other_names,writers,scores,all_people,nice_statments=each_book
  44.         book = {
  45.             "name":all_names,
  46.             "other_name":other_names,
  47.             "writer":writers,
  48.             "score":scores,
  49.             "people":all_people,
  50.             "nice_statment":nice_statments
  51.         }
  52.         books.append(book)
  53.     # books.sort(key=lambda x:float(x["score"]),reverse = True)

  54. header = ["name","other_name","writer","score","people","nice_statment"]
  55. with open("doubandushu1.csv","w",encoding = "utf-8",newline="")as f:
  56.     writer = csv.DictWriter(f,header)#请求csv标题
  57.     writer.writeheader()#写入csv标题
  58.     writer.writerows(books)#写入内容
复制代码




小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

发表于 2019-4-7 18:55:12 | 显示全部楼层
增加一行校验:
print(len(nice_statments))
得到结果
25
25
24
25
25
25
25
22
9
0
你nice_statments只有205个
9_7$XZPER7(MFUY5KL4W~AH.png
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2019-4-7 19:28:53 | 显示全部楼层
heqianqian 发表于 2019-4-7 18:55
增加一行校验:
print(len(nice_statments))
得到结果

找到原因了,网页源代码的问题,不过还是很感谢
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2026-1-15 02:40

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表