用Python2.7 抓取空气质量数据
本帖最后由 wu1996 于 2018-3-4 15:50 编辑从网上复制的代码却出错求解答
from urllib2 import urlopen
from bs4 import BeautifulSoup
import re
import numpy
import csv
def getdatawithtablehead(url):
""" 该函数用于获取带表头的数据 """
html=urlopen(url)
bsobj=BeautifulSoup(html,"lxml") # 获取BeautifulSoup对象
tablelist=bsobj.findAll("tr") # 获取所有的表格
Dataset=[]
tablehead=tablelist.get_text().strip("\n").split("\n\n")
Dataset.append(tablehead) # 获取表头
for datalist in tablelist:
data=datalist.get_text().replace(" ","").replace("\n\r","").\
strip("\n").split("\n")
Dataset.append(data) # 获取当月每一天的数据
return Dataset
def getdata(url):
""" 该函数用于获取不带表头的数据 """
html=urlopen(url)
bsobj=BeautifulSoup(html,"lxml")
tablelist=bsobj.findAll("tr")
dataset=[]
for datalist in tablelist:
data=datalist.get_text().replace(" ","").replace("\n\r","").\
strip("\n").split("\n")
dataset.append(data)
return dataset
# 兰州空气质量指数(AQI)-PM2.5查询地址:
starturl="http://www.tianqihoubao.com/aqi/lanzhou.html"
html=urlopen(starturl)
bsobj=BeautifulSoup(html,"lxml") # 获取BeautifulSoup对象
# 找到所有存放月度数据的网页链接,并以列表的形式按月份先后顺序保存这些链接
Sites=[]
for link in bsobj.findAll(href=re.compile("^(/aqi/lanzhou-)")):
site="http://www.tianqihoubao.com"+link.attrs['href']
Sites.append(site)
Sites.reverse()
Dataset=getdatawithtablehead(Sites) # 获取表头和第一个月度数据
for url in Sites:
dataset=getdata(url)
Dataset=numpy.row_stack((Dataset,dataset)) # 获取所有月度数据
csvfile=open("Dataset.csv","w+") # 创建csv文件用于保存数据
try:
writer=csv.writer(csvfile)
for i in range(numpy.shape(Dataset)):
writer.writerow((Dataset)) # 将数据逐行写入csv文件
finally:
csvfile.close() # 关闭csv文件
可以帮我看下问题出在哪吗 怎么修改 毕业论文急需 谢谢 看报错,说你的输入列的维度除了浓度列以外不匹配,你可以再重新确定下代码{:10_254:} likesunshine 发表于 2018-3-3 14:07
看报错,说你的输入列的维度除了浓度列以外不匹配,你可以再重新确定下代码
from urllib2 import urlopen
from bs4 import BeautifulSoup
import re
import numpy
import csv
def getdatawithtablehead(url):
""" 该函数用于获取带表头的数据 """
html=urlopen(url)
bsobj=BeautifulSoup(html,"lxml") # 获取BeautifulSoup对象
tablelist=bsobj.findAll("tr") # 获取所有的表格
Dataset=[]
tablehead=tablelist.get_text().strip("\n").split("\n\n")
Dataset.append(tablehead) # 获取表头
for datalist in tablelist:
data=datalist.get_text().replace(" ","").replace("\n\r","").\
strip("\n").split("\n")
Dataset.append(data) # 获取当月每一天的数据
return Dataset
def getdata(url):
""" 该函数用于获取不带表头的数据 """
html=urlopen(url)
bsobj=BeautifulSoup(html,"lxml")
tablelist=bsobj.findAll("tr")
dataset=[]
for datalist in tablelist:
data=datalist.get_text().replace(" ","").replace("\n\r","").\
strip("\n").split("\n")
dataset.append(data)
return dataset
# 兰州空气质量指数(AQI)-PM2.5查询地址:
starturl="http://www.tianqihoubao.com/aqi/lanzhou.html"
html=urlopen(starturl)
bsobj=BeautifulSoup(html,"lxml") # 获取BeautifulSoup对象
# 找到所有存放月度数据的网页链接,并以列表的形式按月份先后顺序保存这些链接
Sites=[]
for link in bsobj.findAll(href=re.compile("^(/aqi/lanzhou-)")):
site="http://www.tianqihoubao.com"+link.attrs['href']
Sites.append(site)
Sites.reverse()
Dataset=getdatawithtablehead(Sites) # 获取表头和第一个月度数据
for url in Sites:
dataset=getdata(url)
Dataset=numpy.row_stack((Dataset,dataset)) # 获取所有月度数据
csvfile=open("Dataset.csv","w+") # 创建csv文件用于保存数据
try:
writer=csv.writer(csvfile)
for i in range(numpy.shape(Dataset)):
writer.writerow((Dataset)) # 将数据逐行写入csv文件
finally:
csvfile.close() # 关闭csv文件
可以帮我看下问题出在哪吗 怎么修改 毕业论文急需 谢谢 给你顶一下吧,我也不知道咋解决{:10_250:} 你的 Dataset=numpy.row_stack((Dataset,dataset)) # 获取所有月度数据 这行第一个参数必须得是个矩阵(就是二维数组) {:5_100:}{:5_100:}求大神帮忙
页:
[1]