1. 程式人生 > 其它 >灰度預測+LinearSVR和AERIMA預測財政收入

灰度預測+LinearSVR和AERIMA預測財政收入

一、灰度預測+LinearSVR

import pandas as pd
import numpy as np
from sklearn.linear_model import Lasso

inputfile = './data/data.csv'  # 輸入的資料檔案
data = pd.read_csv(inputfile)  # 讀取資料

lasso = Lasso(1000)  # 呼叫Lasso()函式,設定λ的值為1000
lasso.fit(data.iloc[:,0:13],data['y'])

data = data.iloc[:, 0:13]

mask = lasso.coef_ != 0  # 返回一個相關係數是否為零的布林陣列
outputfile ='./tmp/new_reg_data.csv'  # 輸出的資料檔案
new_reg_data = data.iloc[:, mask]  # 返回相關係數非零的資料
new_reg_data.to_csv(outputfile)  # 儲存資料
print('輸出資料的維度為:',new_reg_data.shape)  # 檢視輸出資料的維度
  • LinearSVR
import matplotlib.pyplot as plt
from sklearn.svm import LinearSVR

inputfile = './tmp/new_reg_data_GM11.xls'  # 灰色預測後儲存的路徑
data = pd.read_excel(inputfile)  # 讀取資料
feature = ['x1', 'x3', 'x4', 'x5', 'x6', 'x7', 'x8', 'x13']  # 屬性所在列
data_train = data.iloc[0:20].copy()  # 取2014年前的資料建模 
data_mean = data_train.mean()
data_std = data_train.std()
data_train = (data_train - data_mean)/data_std  # 資料標準化
x_train = data_train[feature].values  # 屬性資料
y_train = data_train['y'].values  # 標籤資料

linearsvr = LinearSVR()  # 呼叫LinearSVR()函式
linearsvr.fit(x_train,y_train)
x = ((data[feature] - data_mean[feature])/data_std[feature]).values  # 預測,並還原結果。
data['y_pred'] = linearsvr.predict(x) * data_std['y'] + data_mean['y']
outputfile = './tmp/new_reg_data_GM11_revenue.xls'  # SVR預測後儲存的結果
data.to_excel(outputfile)

print('真實值與預測值分別為:\n',data[['y','y_pred']]) 

fig = data[['y','y_pred']].plot(subplots = True, style=['b-o','r-*'])  # 畫出預測結果圖
plt.show()

 

 

 

二、AERIMA

import pandas as pd
# 引數初始化
discfile = 'C:/Users/86136/Documents/python大資料分析/課本原始碼以及資料/chapter6/demo/data/data.csv'
# 讀取資料
data = pd.read_csv(discfile)

# 時序圖
import matplotlib.pyplot as plt
plt.rcParams['font.sans-serif'] = ['SimHei']  # 用來正常顯示中文標籤
plt.rcParams['axes.unicode_minus'] = False  # 用來正常顯示負號
data.plot()
plt.show()

# 自相關圖
from statsmodels.graphics.tsaplots import plot_acf
plot_acf(data['y']).show()
對y(財政收入)進行平穩性檢驗

# 平穩性檢測
from statsmodels.tsa.stattools import adfuller as ADF
print('原始序列的ADF檢驗結果為:', ADF(data['y']))
# 返回值依次為adf、pvalue、usedlag、nobs、critical values、icbest、regresults、resstore

# 差分後的結果
D_data = data.diff().dropna()
feature = ['x1', 'x2', 'x3', 'x4', 'x5', 'x6', 'x7', 'x8', 'x9', 'x10', 'x11', 'x12', 'x13', 'y']  # 屬性所在列
D_data.columns = feature
D_data.plot()  # 時序圖
plt.show()
plot_acf(D_data['y']).show()  # 自相關圖
from statsmodels.graphics.tsaplots import plot_pacf
plot_pacf(D_data['y']).show()  # 偏自相關圖
print('差分序列的ADF檢驗結果為:', ADF(D_data['y']))  # 平穩性檢測

# 白噪聲檢驗
from statsmodels.stats.diagnostic import acorr_ljungbox
print('差分序列的白噪聲檢驗結果為:', acorr_ljungbox(D_data['y'], lags=1))  # 返回統計量和p值


from statsmodels.tsa.arima_model import ARIMA
# 定階
data['y'] = data['y'].astype(float) 
pmax = int(len(D_data)/10)  # 一般階數不超過length/10
qmax = int(len(D_data)/10)  # 一般階數不超過length/10 
bic_matrix = []  # BIC矩陣
for p in range(pmax+1):
  tmp = []
  for q in range(qmax+1):
    try:  # 存在部分報錯,所以用try來跳過報錯。
      tmp.append(ARIMA(data['y'], (p,1,q)).fit().bic)
    except:
      tmp.append(None)
  bic_matrix.append(tmp)

bic_matrix = pd.DataFrame(bic_matrix)  # 從中可以找出最小值

p,q = bic_matrix.stack().idxmin()  # 先用stack展平,然後用idxmin找出最小值位置。
print('BIC最小的p值和q值為:%s、%s' %(p,q)) 
model = ARIMA(data['y'], (p,1,q)).fit()  # 建立ARIMA(0, 1, 1)模型
print('模型報告為:\n', model.summary2())
print('預測未來2年,其預測結果、標準誤差、置信區間如下:\n', model.forecast(2))

  

 

 

 

 

三、結論

灰色預測演算法+SVR演算法預測的模型效果更好