鱼C论坛

 找回密码
 立即注册
查看: 1814|回复: 13

[已解决]爬虫保存到csv

[复制链接]
发表于 2023-7-13 16:57:18 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
请问各位大佬,这个爬取到的内容有一些特殊空格,该怎么才能消除并保存到CSV里
  1. import re
  2. import pandas as pd
  3. import requests
  4. import logging
  5. from bs4 import BeautifulSoup

  6. logging.basicConfig(level=logging.INFO,format='%(asctime)s - %(levelname)s: %(message)s')

  7. index_url = 'https://movie.douban.com/top250?start={}&filter='
  8. header = {
  9.    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/108.0.0.0 Safari/537.36"
  10. }
  11. index_page = 2

  12. #发起请求
  13. def scrape_url(url):
  14.     logging.info(f'正在爬取{url}')
  15.     try:
  16.         response = requests.get(url=url,headers=header)
  17.         if response.status_code == 200:
  18.             return response.text
  19.         logging.error(f'错误代码{response.status_code}')
  20.     except requests.RequestException:
  21.         logging.error(f'爬取{url}出现错误')


  22. #拼接url并发起请求
  23. def page_url(page):
  24.     url = index_url.format(page*25)
  25.     return scrape_url(url)



  26. #解析数据
  27. def parse_page(html):
  28.     date = []
  29.     soup = BeautifulSoup(html,'lxml')
  30.     #取出每一个电影代表的li标签
  31.     li_list = soup.select('.article .grid_view li')
  32.     for li in li_list:
  33.         title = li.select('.hd span')[0].string
  34.         strings = ''.join(li.select('.bd p')[0].get_text().strip())
  35.         score = li.select('.rating_num')[0].string
  36.         date.append({'title':title,'strings':strings,'score':score})

  37.     return date

  38. def save_date(date):
  39.     df = pd.DataFrame(date)
  40.     df.to_csv('./123.csv',index=False,encoding='gbk')


  41. def mian():
  42.     for page in (0,index_page):
  43.         html = page_url(page)
  44.         date = parse_page(html)
  45.         save_date(date)
  46.         print(date)


  47. if __name__ == '__main__':
  48.     mian()
复制代码

这是报错信息
最佳答案
2023-7-13 17:28:33
哈岁NB 发表于 2023-7-13 17:27
这样保存的文件成了乱码

那这样呢?
  1. import re
  2. import pandas as pd
  3. import requests
  4. import logging
  5. from bs4 import BeautifulSoup

  6. logging.basicConfig(level=logging.INFO,format='%(asctime)s - %(levelname)s: %(message)s')

  7. index_url = 'https://movie.douban.com/top250?start={}&filter='
  8. header = {
  9.    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/108.0.0.0 Safari/537.36"
  10. }
  11. index_page = 2

  12. #发起请求
  13. def scrape_url(url):
  14.     logging.info(f'正在爬取{url}')
  15.     try:
  16.         response = requests.get(url=url,headers=header)
  17.         if response.status_code == 200:
  18.             return response.text
  19.         logging.error(f'错误代码{response.status_code}')
  20.     except requests.RequestException:
  21.         logging.error(f'爬取{url}出现错误')


  22. #拼接url并发起请求
  23. def page_url(page):
  24.     url = index_url.format(page*25)
  25.     return scrape_url(url)



  26. #解析数据
  27. def parse_page(html):
  28.     date = []
  29.     soup = BeautifulSoup(html,'lxml')
  30.     #取出每一个电影代表的li标签
  31.     li_list = soup.select('.article .grid_view li')
  32.     for li in li_list:
  33.         title = li.select('.hd span')[0].string
  34.         strings = ''.join(li.select('.bd p')[0].get_text().strip())
  35.         score = li.select('.rating_num')[0].string
  36.         date.append({'title':title,'strings':strings,'score':score})

  37.     return date

  38. def save_date(date):
  39.     df = pd.DataFrame(date)
  40.     df.to_csv('./123.csv',index=False,encoding='utf-8-sig')


  41. def mian():
  42.     for page in (0,index_page):
  43.         html = page_url(page)
  44.         date = parse_page(html)
  45.         save_date(date)
  46.         print(date)


  47. if __name__ == '__main__':
  48.     mian()
复制代码
屏幕截图(68).png
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

发表于 2023-7-13 16:57:29 | 显示全部楼层
根据您提供的代码,报错信息不够详细,无法准确定位问题所在。请提供完整的报错信息,包括错误提示、行数和异常类型等信息。

同时,根据您的代码来看,可能存在以下几个潜在问题:

1. strings 变量存在多余的空格或特殊字符,你可以使用正则表达式进行清理。例如,可以使用 re.sub() 函数将连续的空白字符替换为单个空格。

2. 在保存为 CSV 文件时,指定的编码为 gbk,但可能导致字符编码问题。你可以尝试使用 utf-8 编码保存 CSV 文件,这是更常见的编码格式。

请先尝试解决上述问题,如果问题仍然存在,请提供完整的报错信息以便进一步帮助。
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2023-7-13 16:59:30 | 显示全部楼层
您可以使用正则表达式来消除特殊空格。在`parse_page`函数中,您可以尝试使用`re.sub()`函数将特殊空格替换为空字符串。下面是修改后的代码:

  1. import re

  2. ...

  3. def parse_page(html):
  4.     date = []
  5.     soup = BeautifulSoup(html,'lxml')
  6.     li_list = soup.select('.article .grid_view li')

  7.     for li in li_list:
  8.         title = li.select('.hd span')[0].string
  9.         strings = ''.join(li.select('.bd p')[0].get_text().strip())
  10.         strings = re.sub('\s+', '', strings)  # 使用正则表达式替换特殊空格
  11.         score = li.select('.rating_num')[0].string
  12.         date.append({'title':title,'strings':strings,'score':score})

  13.     return date

  14. ...
复制代码

这样修改后,特殊空格将被替换为空字符串。然后,保存数据到CSV文件时,您可以按照原来的方式调用`save_date`函数。
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2023-7-13 17:01:13 | 显示全部楼层
sfqxx 发表于 2023-7-13 16:59
您可以使用正则表达式来消除特殊空格。在`parse_page`函数中,您可以尝试使用`re.sub()`函数将特殊空格替换 ...

还是不行,
屏幕截图(69).png
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2023-7-13 17:22:47 | 显示全部楼层
  1. import re
  2. import pandas as pd
  3. import requests
  4. import logging
  5. from bs4 import BeautifulSoup

  6. logging.basicConfig(level=logging.INFO,format='%(asctime)s - %(levelname)s: %(message)s')

  7. index_url = 'https://movie.douban.com/top250?start={}&filter='
  8. header = {
  9.    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/108.0.0.0 Safari/537.36"
  10. }
  11. index_page = 2

  12. #发起请求
  13. def scrape_url(url):
  14.     logging.info(f'正在爬取{url}')
  15.     try:
  16.         response = requests.get(url=url,headers=header)
  17.         if response.status_code == 200:
  18.             return response.text
  19.         logging.error(f'错误代码{response.status_code}')
  20.     except requests.RequestException:
  21.         logging.error(f'爬取{url}出现错误')


  22. #拼接url并发起请求
  23. def page_url(page):
  24.     url = index_url.format(page*25)
  25.     return scrape_url(url)



  26. #解析数据
  27. def parse_page(html):
  28.     date = []
  29.     soup = BeautifulSoup(html,'lxml')
  30.     #取出每一个电影代表的li标签
  31.     li_list = soup.select('.article .grid_view li')
  32.     for li in li_list:
  33.         title = li.select('.hd span')[0].string
  34.         strings = ''.join(li.select('.bd p')[0].get_text().strip())
  35.         score = li.select('.rating_num')[0].string
  36.         date.append({'title':title,'strings':strings,'score':score})

  37.     return date

  38. def save_date(date):
  39.     df = pd.DataFrame(date)
  40.     df.to_csv('./123.csv',index=False,encoding='utf-8')


  41. def mian():
  42.     for page in (0,index_page):
  43.         html = page_url(page)
  44.         date = parse_page(html)
  45.         save_date(date)
  46.         print(date)


  47. if __name__ == '__main__':
  48.     mian()
复制代码
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2023-7-13 17:27:29 | 显示全部楼层

这样保存的文件成了乱码
屏幕截图(70).png
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2023-7-13 17:28:33 | 显示全部楼层    本楼为最佳答案   
哈岁NB 发表于 2023-7-13 17:27
这样保存的文件成了乱码

那这样呢?
  1. import re
  2. import pandas as pd
  3. import requests
  4. import logging
  5. from bs4 import BeautifulSoup

  6. logging.basicConfig(level=logging.INFO,format='%(asctime)s - %(levelname)s: %(message)s')

  7. index_url = 'https://movie.douban.com/top250?start={}&filter='
  8. header = {
  9.    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/108.0.0.0 Safari/537.36"
  10. }
  11. index_page = 2

  12. #发起请求
  13. def scrape_url(url):
  14.     logging.info(f'正在爬取{url}')
  15.     try:
  16.         response = requests.get(url=url,headers=header)
  17.         if response.status_code == 200:
  18.             return response.text
  19.         logging.error(f'错误代码{response.status_code}')
  20.     except requests.RequestException:
  21.         logging.error(f'爬取{url}出现错误')


  22. #拼接url并发起请求
  23. def page_url(page):
  24.     url = index_url.format(page*25)
  25.     return scrape_url(url)



  26. #解析数据
  27. def parse_page(html):
  28.     date = []
  29.     soup = BeautifulSoup(html,'lxml')
  30.     #取出每一个电影代表的li标签
  31.     li_list = soup.select('.article .grid_view li')
  32.     for li in li_list:
  33.         title = li.select('.hd span')[0].string
  34.         strings = ''.join(li.select('.bd p')[0].get_text().strip())
  35.         score = li.select('.rating_num')[0].string
  36.         date.append({'title':title,'strings':strings,'score':score})

  37.     return date

  38. def save_date(date):
  39.     df = pd.DataFrame(date)
  40.     df.to_csv('./123.csv',index=False,encoding='utf-8-sig')


  41. def mian():
  42.     for page in (0,index_page):
  43.         html = page_url(page)
  44.         date = parse_page(html)
  45.         save_date(date)
  46.         print(date)


  47. if __name__ == '__main__':
  48.     mian()
复制代码
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2023-7-13 17:31:12 | 显示全部楼层

这回可以了,是只改成了utf-8-sig吗
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2023-7-13 17:32:15 | 显示全部楼层
哈岁NB 发表于 2023-7-13 17:31
这回可以了,是只改成了utf-8-sig吗

嗯嗯
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2023-7-13 17:34:12 | 显示全部楼层

请问一下为什么utf8是乱码,而改成utf8sig就好了呢
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2023-7-13 17:38:35 | 显示全部楼层
哈岁NB 发表于 2023-7-13 17:34
请问一下为什么utf8是乱码,而改成utf8sig就好了呢

UTF-8和UTF-8-SIG实际上都是字符编码标准,它们用于将人类可读的文字转换成机器可识别的二进制数据。

当您提到UTF-8编码产生乱码,而转换到UTF-8-SIG则没有乱码时,我猜您可能是遇到了一个文件的开头包含特殊的字节序标记,也就是BOM(Byte Order Mark)。

UTF-8-SIG是微软对UTF-8编码的一个扩展,其在UTF-8的基础上在文件开头添加了一个特殊的BOM标记(EF BB BF),这个标记用于指示该文件是以UTF-8编码的。一些文本编辑器和系统能识别这个BOM标记,然后正确地读取文件内容。

而UTF-8标准本身并不需要BOM来识别编码,所以当一个文件以UTF-8-SIG编码,却又用普通的UTF-8方式来读取时,BOM会被误读为文字内容,因此产生乱码。

因此,如果你的文件在开头包含BOM,使用UTF-8-SIG编码读取文件可以避免产生乱码。
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 1 反对 0

使用道具 举报

 楼主| 发表于 2023-7-13 17:39:23 | 显示全部楼层
isdkz 发表于 2023-7-13 17:38
UTF-8和UTF-8-SIG实际上都是字符编码标准,它们用于将人类可读的文字转换成机器可识别的二进制数据。

...

好的,感谢感谢
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2023-7-13 18:04:18 | 显示全部楼层
isdkz 发表于 2023-7-13 17:38
UTF-8和UTF-8-SIG实际上都是字符编码标准,它们用于将人类可读的文字转换成机器可识别的二进制数据。

...

“人类”
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2023-7-13 18:05:31 | 显示全部楼层

没什么毛病,你就是上网搜资料或者书上都是这么说的
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2025-6-27 15:22

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表