鱼C论坛

 找回密码
 立即注册
查看: 993|回复: 3

爬取2019主要城市房价工资比为空列表

[复制链接]
发表于 2020-3-23 14:10:25 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
小白一枚  照猫画虎写的代码  爬取出来是空列表  在网上没找到解决办法
求大佬帮着看一下

爬取的url:http://www.szfce.com/gn/27107.html


import requests
from bs4 import BeautifulSoup
import re
import openpyxl

def open_url(url):
    headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.149 Safari/537.36'
    }

    res = requests.get(url, headers = headers)
    res.encoding = 'utf-8'
    return res


def find_data(res):
    data = []
    soup = BeautifulSoup(res.text,'lxml')
    content = soup.find('article',class_="article-content")
    targets = content.find_all('p')
    targets = iter(targets)
    for each in targets:
        if each.text.isnumeric():
            data.append([
                re.search(r'\[(.+)\]',next(targets).text).group(1),
                re.search(r'\d.*',next(targets).text).group(),
                re.search(r'\d.*',next(targets).text).group(),
                re.search(r'\d.*',next(targets).text).group()
            ])
    
    return data


def to_excel(data):
    wb = openpyxl.Workbook()
    wb.guess_types = True
    ws = wb.active
    ws.append(['城市','平均房价','平均工资','房价工资比'])
    for each in data:
        ws.append(each)

    wb.save("2019全国各大主要城市房价、工资排行榜.xlsx")


def main():
    url = 'http://www.szfce.com/gn/27107.html'
    # url = 'https://news.house.qq.com/a/20170702/003985.htm'
    res = open_url(url)
    data = find_data(res)
    to_excel(data)

if __name__ == "__main__":
    main()
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2020-3-23 15:23:11 | 显示全部楼层
给你重写了一下
import requests
from bs4 import BeautifulSoup
import re
import openpyxl

def open_url(url):
    headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.149 Safari/537.36'
    }

    res = requests.get(url, headers = headers)
    res.encoding = 'utf-8'
    return res


def find_data(res):
    data = []
    soup = BeautifulSoup(res.text,'lxml')
    content = soup.find('article',class_="article-content")
    targets = content.find_all('p')[8:-13]
    for i in range(len(targets)//5):
        data.append([
                re.findall(r'\[(.+)\]',targets[i*5+1].text)[0],
                re.findall(r'\d.*',targets[i*5+2].text)[0],
                re.findall(r'\d.*',targets[i*5+3].text)[0],
                re.findall(r'\d.*',targets[i*5+4].text)[0]
            ])
    return data


def to_excel(data):
    wb = openpyxl.Workbook()
    wb.guess_types = True
    ws = wb.active
    ws.append(['城市','平均房价','平均工资','房价工资比'])
    for each in data:
        ws.append(each)

    wb.save("2019全国各大主要城市房价、工资排行榜.xlsx")


def main():
    url = 'http://www.szfce.com/gn/27107.html'
    # url = 'https://news.house.qq.com/a/20170702/003985.htm'
    res = open_url(url)
    data = find_data(res)
    to_excel(data)

if __name__ == "__main__":
    main()
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2020-3-23 16:04:37 | 显示全部楼层
snaker 发表于 2020-3-23 15:23
给你重写了一下

谢谢 老哥
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2020-3-23 16:09:39 | 显示全部楼层
snaker 发表于 2020-3-23 15:23
给你重写了一下

话说老哥你知道我那种写发为啥爬出来是空的么?
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2024-11-25 08:49

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表