数据:

特征值说明:
X1 | 社会从业人数 | X2 | 在岗职工工资总额 |
X3 | 社会消费零售总额 | X4 | 城镇居民人均可支配收入 |
X5 | 城镇居民人均消费性支出 | X6 | 年末总人口 |
X7 | 全社会固定资产投资额 | X8 | 地区生产总值 |
X9 | 第一生产值 | X10 | 税收 |
X11 | 居民消费价格指数 | X12 | 第三产业与第二产业产值比 |
X13 | 居民消费水平 | Y | 财政收入 |
一、对数据进行分析
①描述性统计分析:
import numpy as np
import pandas as pd
inputfile = 'C:/Users/透心凉i/data.csv' # 输入的数据文件
data = pd.read_csv(inputfile) # 读取数据
# 描述性统计分析
description = [data.min(), data.max(), data.mean(), data.std()] # 依次计算最小值、最大值、均值、标准差
description = pd.DataFrame(description, index = ['Min', 'Max', 'Mean', 'STD']).T # 将结果存入数据框
print('描述性统计结果:\n',np.round(description, 2)) # 保留两位小数结果:

②相关性分析
# 相关性分析
corr = data.corr(method = 'pearson') # 计算相关系数矩阵
print('相关系数矩阵为:\n',np.round(corr, 2)) # 保留两位小数结果:

热力图:

由此可知X11(居民消费价格指数)对y(财政收入)影响最小
二、灰度预测算法与SVR算法
1、LASSO回归选取关键属性
import numpy as np
import pandas as pd
from sklearn.linear_model import Lasso
inputfile = 'C:/Users/透心凉i/data.csv' # 输入的数据文件
data = pd.read_csv(inputfile) # 读取数据
lasso = Lasso(1000) # 调用Lasso()函数,设置λ的值为1000
lasso.fit(data.iloc[:,0:13],data['y'])
print('相关系数为:',np.round(lasso.coef_,5)) # 输出结果,保留五位小数
print('相关系数非零个数为:',np.sum(lasso.coef_ != 0)) # 计算相关系数非零的个数
mask = lasso.coef_ != 0 # 返回一个相关系数是否为零的布尔数组
print('相关系数是否为零:',mask)
mask = np.append(mask,True)
outputfile ='C:/Users/透心凉i/new_reg_data.csv' # 输出的数据文件
new_reg_data = data.iloc[:, mask] # 返回相关系数非零的数据
new_reg_data.to_csv(outputfile) #
print('输出数据的维度为:',new_reg_data.shape) # 查看输出数据的维度 结果

利用Lasso回归方法识别影响财政收人的关键因素是社会从业人数(x1 )、 社会消费品零售总额(x3)、城镇居民人均可支配收人(x4)、 城镇居民人均消费性支出(x5)、年末总人口(x6)全社会固定资产投资额(x7)、地区生产总值(x8)和居民消费水平(x13)
灰色预测函数(GM11)
def GM11(x0): #自定义灰色预测函数
import numpy as np
x1 = x0.cumsum() #1-AGO序列
z1 = (x1[:len(x1)-1] + x1[1:])/2.0 #紧邻均值(MEAN)生成序列
z1 = z1.reshape((len(z1),1))
B = np.append(-z1, np.ones_like(z1), axis = 1)
Yn = x0[1:].reshape((len(x0)-1, 1))
[[a],[b]] = np.dot(np.dot(np.linalg.inv(np.dot(B.T, B)), B.T), Yn) #计算参数
f = lambda k: (x0[0]-b/a)*np.exp(-a*(k-1))-(x0[0]-b/a)*np.exp(-a*(k-2)) #还原值
delta = np.abs(x0 - np.array([f(i) for i in range(1,len(x0)+1)]))
C = delta.std()/x0.std()
P = 1.0*(np.abs(delta - delta.mean()) < 0.6745*x0.std()).sum()/len(x0)
return f, a, b, x0[0], C, P #返回灰色预测函数、a、b、首项、方差比、小残差概率SVR回归预测模型
import matplotlib.pyplot as plt
from sklearn.svm import LinearSVR
import pandas as pd
inputfile = 'C:/Users/透心凉i/new_reg_data_GM11.xls' # 灰色预测后保存的路径
data = pd.read_excel(inputfile,index_col=0) # 读取数据
feature = ['x1', 'x3', 'x4', 'x5', 'x6', 'x7', 'x8', 'x13'] # 属性所在列
#data_train = data.loc[range(1994,2014)].copy() # 取2014年前的数据建模
data_train = data.iloc[0:20].copy() # 取2014年前的数据建模
data_mean = data_train.mean()
data_std = data_train.std()
data_train = (data_train - data_mean)/data_std # 数据标准化
x_train = data_train[feature].values # 属性数据
y_train = data_train['y'].values # 标签数据
linearsvr = LinearSVR() # 调用LinearSVR()函数
linearsvr.fit(x_train,y_train)
x = ((data[feature] - data_mean[feature])/data_std[feature]).values # 预测,并还原结果。
data['y_pred'] = linearsvr.predict(x) * data_std['y'] + data_mean['y']
outputfile = 'C:/Users/透心凉i/new_reg_data_GM11_revenue.xls' # SVR预测后保存的结果
data.to_excel(outputfile)
print('真实值与预测值分别为:\n',data[['y','y_pred']])
fig = data[['y','y_pred']].plot(subplots = True, style=['b-o','r-*']) # 画出预测结果图
plt.show()结果:


三、ARMA模型
读入数据+时序图+自相关图
import pandas as pd
# 参数初始化
discfile = 'C:/Users/透心凉i/data.csv'
# 读取数据
data = pd.read_csv(discfile)
# 时序图
import matplotlib.pyplot as plt
plt.rcParams['font.sans-serif'] = ['SimHei'] # 用来正常显示中文标签
plt.rcParams['axes.unicode_minus'] = False # 用来正常显示负号
data.plot()
plt.show()
from statsmodels.graphics.tsaplots import plot_acf
plot_acf(data['y']).show()
平稳性检验
from statsmodels.tsa.stattools import adfuller as ADF
print('原始序列的ADF检验结果为:', ADF(data['y']))
# 返回值依次为adf、pvalue、usedlag、nobs、critical values、icbest、regresults、resstore
p值为1,数据不平稳
差分
D_data = data.diff().dropna()
feature = ['x1', 'x2', 'x3', 'x4', 'x5', 'x6', 'x7', 'x8', 'x9', 'x10', 'x11', 'x12', 'x13', 'y'] # 属性所在列
D_data.columns = feature
D_data.plot() # 时序图
plt.show()
plot_acf(D_data['y']).show() # 自相关图
from statsmodels.graphics.tsaplots import plot_pacf
plot_pacf(D_data['y'],lags=4).show() # 偏自相关图
print('差分序列的ADF检验结果为:', ADF(D_data['y'])) # 平稳性检测

# 白噪声检验
from statsmodels.stats.diagnostic import acorr_ljungbox
print('差分序列的白噪声检验结果为:', acorr_ljungbox(D_data['y'], lags=1)) # 返回统计量和p值
from statsmodels.tsa.arima_model import ARIMA
算法预测:
data['y'] = data['y'].astype(float)
pmax = int(len(D_data)/10) # 一般阶数不超过length/10
qmax = int(len(D_data)/10) # 一般阶数不超过length/10
bic_matrix = [] # BIC矩阵
for p in range(pmax+1):
tmp = []
for q in range(qmax+1):
try: # 存在部分报错,所以用try来跳过报错。
tmp.append(ARIMA(data['y'], (p,1,q)).fit().bic)
except:
tmp.append(None)
bic_matrix.append(tmp)
bic_matrix = pd.DataFrame(bic_matrix) # 从中可以找出最小值
p,q = bic_matrix.stack().idxmin() # 先用stack展平,然后用idxmin找出最小值位置。
print('BIC最小的p值和q值为:%s、%s' %(p,q))
model = ARIMA(data['y'], (p,1,q)).fit() # 建立ARIMA(0, 1, 1)模型
print('模型报告为:\n', model.summary2())
print('预测未来2年,其预测结果、标准误差、置信区间如下:\n', model.forecast(2))
















