鱼C论坛

 找回密码
 立即注册
查看: 1080|回复: 6

[已解决]想爬取完整的250个电影,这个代码我得怎么完善

[复制链接]
发表于 2023-6-2 16:39:32 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
如图所示,现在代码运行之后值爬到第一页面的25个电影内容,我知道他每页?start=0&filter=;“0”这个参数依次递增25,那就可以
  1. num = 0
  2. while num <= 250:
  3.     print(num)
  4.     num += 25
复制代码

不是太清楚这个数字得怎么代入到url网址里,跟怎么获取全部页面 250个电影的源代码?
最佳答案
2023-6-3 13:12:45
小龟龙 发表于 2023-6-3 08:44
老哥,那个f缩进在循环里面了,最后面的f.close,显示f未定义,怎么搞,没close我又怕一会封ip了

  1. import requests
  2. import re
  3. import csv

  4. f = open("date.csv", mode="w")
  5. csvwriter = csv.writer(f)

  6. num = 0
  7. while num <= 250:
  8.     print(num)
  9.     # 获取网页的内容
  10.     url = f"https://movie.douban.com/top250?start={num}&filter="

  11.     headers = {
  12.         "User-Agent":"Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/114.0.0.0 Safari/537.36"
  13.     }

  14.     resp = requests.get(url,headers=headers)
  15.     page_content = resp.text

  16.     # 对网页的内容进行解析
  17.     obj = re.compile(r'<li>.*?<span class="title">(?P<name>.*?)</span>'
  18.                      r'.*?<br>(?P<year>.*?)&nbsp.*?<span class="rating_num" property="v:average">'
  19.                      r'(?P<score>.*?)</span>.*?<span>(?P<num>.*?)人评价</span>', re.S)

  20.     result = obj.finditer(page_content)
  21.     for it in result:
  22.         # print(it.group("name"))
  23.         # print(it.group("score"))
  24.         # print(it.group("num"))
  25.         # print(it.group("year").strip())
  26.         dic = it.groupdict()
  27.         dic['year'] = dic['year'].strip()
  28.         csvwriter.writerow(dic.values())
  29.     num += 25

  30. f.close()
  31. print("over!")
复制代码


没仔细看代码,失礼了
Snipaste_2023-06-02_15-12-07.png
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2023-6-2 17:01:35 | 显示全部楼层
代码放上来,手巧很累
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2023-6-2 17:10:41 | 显示全部楼层
歌者文明清理员 发表于 2023-6-2 17:01
代码放上来,手巧很累
  1. import requests
  2. import re
  3. import csv

  4. # 获取网页的内容
  5. url = "https://movie.douban.com/top250?start=25&filter="

  6. headers = {
  7.     "User-Agent":"Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/114.0.0.0 Safari/537.36"
  8. }

  9. resp = requests.get(url,headers=headers)
  10. page_content = resp.text

  11. # 对网页的内容进行解析
  12. obj = re.compile(r'<li>.*?<span class="title">(?P<name>.*?)</span>'
  13.                  r'.*?<br>(?P<year>.*?)&nbsp.*?<span class="rating_num" property="v:average">'
  14.                  r'(?P<score>.*?)</span>.*?<span>(?P<num>.*?)人评价</span>', re.S)

  15. result = obj.finditer(page_content)
  16. f = open("date.csv", mode="w")
  17. csvwriter = csv.writer(f)
  18. for it in result:
  19.     # print(it.group("name"))
  20.     # print(it.group("score"))
  21.     # print(it.group("num"))
  22.     # print(it.group("year").strip())
  23.     dic = it.groupdict()
  24.     dic['year'] = dic['year'].strip()
  25.     csvwriter.writerow(dic.values())

  26. f.close()
  27. print("over!")
复制代码
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2023-6-2 17:13:04 | 显示全部楼层
  1. import requests
  2. import re
  3. import csv

  4. num = 0
  5. while num <= 250:
  6.     print(num)
  7.     # 获取网页的内容
  8.     url = f"https://movie.douban.com/top250?start={num}&filter="

  9.     headers = {
  10.         "User-Agent":"Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/114.0.0.0 Safari/537.36"
  11.     }

  12.     resp = requests.get(url,headers=headers)
  13.     page_content = resp.text

  14.     # 对网页的内容进行解析
  15.     obj = re.compile(r'<li>.*?<span class="title">(?P<name>.*?)</span>'
  16.                      r'.*?<br>(?P<year>.*?)&nbsp.*?<span class="rating_num" property="v:average">'
  17.                      r'(?P<score>.*?)</span>.*?<span>(?P<num>.*?)人评价</span>', re.S)

  18.     result = obj.finditer(page_content)
  19.     f = open("date.csv", mode="w")
  20.     csvwriter = csv.writer(f)
  21.     for it in result:
  22.         # print(it.group("name"))
  23.         # print(it.group("score"))
  24.         # print(it.group("num"))
  25.         # print(it.group("year").strip())
  26.         dic = it.groupdict()
  27.         dic['year'] = dic['year'].strip()
  28.         csvwriter.writerow(dic.values())
  29.     num += 25

  30. f.close()
  31. print("over!")
复制代码
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2023-6-2 18:01:15 | 显示全部楼层
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2023-6-3 08:44:01 | 显示全部楼层

老哥,那个f缩进在循环里面了,最后面的f.close,显示f未定义,怎么搞,没close我又怕一会封ip了
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2023-6-3 13:12:45 | 显示全部楼层    本楼为最佳答案   
小龟龙 发表于 2023-6-3 08:44
老哥,那个f缩进在循环里面了,最后面的f.close,显示f未定义,怎么搞,没close我又怕一会封ip了

  1. import requests
  2. import re
  3. import csv

  4. f = open("date.csv", mode="w")
  5. csvwriter = csv.writer(f)

  6. num = 0
  7. while num <= 250:
  8.     print(num)
  9.     # 获取网页的内容
  10.     url = f"https://movie.douban.com/top250?start={num}&filter="

  11.     headers = {
  12.         "User-Agent":"Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/114.0.0.0 Safari/537.36"
  13.     }

  14.     resp = requests.get(url,headers=headers)
  15.     page_content = resp.text

  16.     # 对网页的内容进行解析
  17.     obj = re.compile(r'<li>.*?<span class="title">(?P<name>.*?)</span>'
  18.                      r'.*?<br>(?P<year>.*?)&nbsp.*?<span class="rating_num" property="v:average">'
  19.                      r'(?P<score>.*?)</span>.*?<span>(?P<num>.*?)人评价</span>', re.S)

  20.     result = obj.finditer(page_content)
  21.     for it in result:
  22.         # print(it.group("name"))
  23.         # print(it.group("score"))
  24.         # print(it.group("num"))
  25.         # print(it.group("year").strip())
  26.         dic = it.groupdict()
  27.         dic['year'] = dic['year'].strip()
  28.         csvwriter.writerow(dic.values())
  29.     num += 25

  30. f.close()
  31. print("over!")
复制代码


没仔细看代码,失礼了
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2024-5-20 11:05

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表