鱼C论坛

 找回密码
 立即注册
查看: 1923|回复: 4

爬取58同城,代码运行无误,但未能爬到东西

[复制链接]
发表于 2020-9-15 08:45:53 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
代码可以运行但是无法爬出数据,运行完后csv表为空。
问题应该在select的定位上,但是总是解决不了。
感谢帮助!
  1. import urllib.request
  2. from bs4 import BeautifulSoup
  3. import pandas as pd

  4. #爬取数据
  5. def request_Data(url):

  6.     #创建requests对象
  7.     req = urllib.request.Request(url)
  8.    
  9.     page_data_list = []
  10.    
  11.     with urllib.request.urlopen(req) as response:
  12.         data = response.read()
  13.         htmlstr = data.decode()
  14.         L = parse_HTMLData(htmlstr)
  15.         page_data_list.extend(L)
  16.    
  17.     return page_data_list


  18. #解析数据
  19. def parse_HTMLData(htmlstr):
  20.    
  21.     sp = BeautifulSoup(htmlstr,'html.parser')
  22.    
  23.     #获得房子信息列表
  24.     house_list = sp.select('body > div.main-wrap > div.content-wrap > div.content-side-left  > li:nth-child')
  25.                               
  26.    
  27.     #当前页中的记录列表
  28.     page_list = []
  29.     for house in house_list:
  30.         #每一行数据
  31.         rows_list = []
  32.         
  33.         #获得房子标题
  34.         title = house.select('body > div.main-wrap > div.content-wrap > div.content-side-left  > li')
  35.                            
  36.                            
  37.         title = (title[0].text).strip()
  38.         rows_list.append(title)
  39.         
  40.         #获得房子信息
  41.         infos = house.select('body > div.main-wrap > div.content-wrap > div.content-side-left > li > div.list-info > p')
  42.                            
  43.         # 获得房子户型
  44.         house_type = (infos[0].text).strip()
  45.         rows_list.append(house_type)
  46.         # 获得房子面积
  47.         house_area = (infos[2].text).strip()
  48.         rows_list.append(house_area)
  49.         # 获得房子朝向
  50.         house_face = (infos[4].text).strip()
  51.         rows_list.append(house_face)
  52.         # 获得房子楼层
  53.         house_floor = (infos[6].text).strip()
  54.         rows_list.append(house_floor)
  55.         #获得房子所在城区
  56.         addr_dist = house.select('body > div.main-wrap > div.content-wrap > div.content-side-left > li > div.list-info > p:nth-child(3) > span > a:nth-child(2)')
  57.                                 body > div.main-wrap > div.content-wrap > div.content-side-left > ul > li:nth-child(1) > div.list-info > p:nth-child(3) > span > a:nth-child(2)
  58.         rows_list.append(addr_dist)
  59.         #获得房子所在小区
  60.         addr_name = house.select('body > div.main-wrap > div.content-wrap > div.content-side-left > li > div.list-info > p:nth-child(3) > span > a:nth-child(1)')
  61.                                  
  62.         addr_name = (addr_name[0].text).strip()
  63.         rows_list.append(addr_name)
  64.         #获得房子总价
  65.         total_price = house.select('body > div.main-wrap > div.content-wrap > div.content-side-left > li.sendsoj.hove > div.price > p.sum > b')
  66.                                     
  67.         total_price = (total_price[0].text).strip()
  68.         rows_list.append(total_price)
  69.         #获得房子单价
  70.         price = house.select('body > div.main-wrap > div.content-wrap > div.content-side-left > li.sendsoj.hove > div.price > p.unit')
  71.                               
  72.                                 
  73.         price = (price[0].text).strip()
  74.         rows_list.append(price)
  75.            
  76.         page_list.append(rows_list)
  77.         
  78.     return page_list
  79.         

  80. url_temp = 'http://sh.ganji.com/ershoufang/pn{}/'

  81. data_list = []

  82. for i in range(1,11):  #总共70页
  83.     url = url_temp.format(i)
  84.     print(url)
  85.     print('+++++第{}页++++++'.format(i))
  86.    
  87.     try:
  88.         L = request_Data(url)
  89.         data_list.extend(L)
  90.     except Exception as e:
  91.         
  92.         #不再循环
  93.         print('不再有数据,结束循环')
  94.         break
  95.    
  96. print(data_list)
  97.    
  98. #保存数据
  99. #列名
  100. colsname = ['标题', '户型', '面积', '朝向', '楼层', '城区', '小区名', '总价', '单价']  

  101. df = pd.DataFrame(data_list, columns = colsname)  
  102. df.to_csv('house_data.csv',index = False,encoding='gbk')
复制代码
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

发表于 2020-9-15 20:18:43 | 显示全部楼层
本帖最后由 YunGuo 于 2020-9-15 20:22 编辑

一步步检查,实在不行就换xpath解析
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-9-15 21:08:13 | 显示全部楼层
你先不要考虑select,先考虑下有没有爬到数据,再考虑定位问题
  1. print(htmlstr)
复制代码

你打印过这个没?运行了下你的代码,打印出来是显示要输入验证码,没爬到数据啊
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-9-15 22:43:50 | 显示全部楼层
  1. # _*_ coding: utf-8 _*_
  2. # Developer: suchocolate
  3. # Date: 9/15/2020 22:14
  4. # File name: 58tc.py
  5. # Development tool: PyCharm

  6. import requests
  7. from lxml import etree
  8. from openpyxl import Workbook


  9. def main():
  10.     wb = Workbook()
  11.     ws = wb.active
  12.     head = ['标题', '户型', '面积', '朝向', '楼层', '城区', '小区名', '总价(万)', '单价']
  13.     ws.append(head)
  14.     base_url = 'https://sh.58.com/ershoufang/pn'
  15.     headers = {'user-agent': 'firefox'}
  16.     for num in range(1, 11):
  17.         url = base_url + str(num)
  18.         r = requests.get(url, headers=headers)
  19.         html = etree.HTML(r.text)
  20.         result = html.xpath('//li[@class="sendsoj"]')
  21.         for item in result:
  22.             data = []
  23.             title = item.xpath('./div[2]/h2/a/text()')
  24.             data.extend(title)
  25.             house_type = item.xpath('./div[2]/p[1]/span[1]/text()')
  26.             data.extend(house_type)
  27.             area = item.xpath('./div[2]/p[1]/span[2]/text()')
  28.             data.extend(area)
  29.             orient = item.xpath('./div[2]/p[1]/span[3]/text()')
  30.             data.extend(orient)
  31.             floor = item.xpath('./div[2]/p[1]/span[4]/text()')
  32.             data.extend(floor)
  33.             urban = item.xpath('./div[2]/p[2]/span[1]/a[2]/text()')
  34.             data.extend(urban)
  35.             community = item.xpath('./div[2]/p[2]/span[1]/a[1]/text()')
  36.             data.extend(community)
  37.             total_price = item.xpath('./div[3]/p[1]/b/text()')
  38.             data.extend(total_price)
  39.             uni_price = item.xpath('./div[3]/p[2]/text()')
  40.             data.extend(uni_price)
  41.             ws.append(data)
  42.     wb.save('test.xlsx')


  43. if __name__ == '__main__':
  44.     main()
复制代码
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-9-16 09:17:50 | 显示全部楼层
https://sh.58.com/ershoufang/pn1/

你换下网址试下,或者直接用requests模块,因为有302的重定向,urllib.request不知道会不会自动处理重定向,一直都用requests,requests是会自动处理重定向的
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2025-5-19 02:43

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表