灰度預測+LinearSVR和AERIMA預測財政收入
阿新 • • 發佈:2022-04-01
一、灰度預測+LinearSVR
import pandas as pd import numpy as np from sklearn.linear_model import Lasso inputfile = './data/data.csv' # 輸入的資料檔案 data = pd.read_csv(inputfile) # 讀取資料 lasso = Lasso(1000) # 呼叫Lasso()函式,設定λ的值為1000 lasso.fit(data.iloc[:,0:13],data['y']) data = data.iloc[:, 0:13] mask = lasso.coef_ != 0 # 返回一個相關係數是否為零的布林陣列 outputfile ='./tmp/new_reg_data.csv' # 輸出的資料檔案 new_reg_data = data.iloc[:, mask] # 返回相關係數非零的資料 new_reg_data.to_csv(outputfile) # 儲存資料 print('輸出資料的維度為:',new_reg_data.shape) # 檢視輸出資料的維度
- LinearSVR
import matplotlib.pyplot as plt from sklearn.svm import LinearSVR inputfile = './tmp/new_reg_data_GM11.xls' # 灰色預測後儲存的路徑 data = pd.read_excel(inputfile) # 讀取資料 feature = ['x1', 'x3', 'x4', 'x5', 'x6', 'x7', 'x8', 'x13'] # 屬性所在列 data_train = data.iloc[0:20].copy() # 取2014年前的資料建模 data_mean = data_train.mean() data_std = data_train.std() data_train = (data_train - data_mean)/data_std # 資料標準化 x_train = data_train[feature].values # 屬性資料 y_train = data_train['y'].values # 標籤資料 linearsvr = LinearSVR() # 呼叫LinearSVR()函式 linearsvr.fit(x_train,y_train) x = ((data[feature] - data_mean[feature])/data_std[feature]).values # 預測,並還原結果。 data['y_pred'] = linearsvr.predict(x) * data_std['y'] + data_mean['y'] outputfile = './tmp/new_reg_data_GM11_revenue.xls' # SVR預測後儲存的結果 data.to_excel(outputfile) print('真實值與預測值分別為:\n',data[['y','y_pred']]) fig = data[['y','y_pred']].plot(subplots = True, style=['b-o','r-*']) # 畫出預測結果圖 plt.show()
二、AERIMA
import pandas as pd # 引數初始化 discfile = 'C:/Users/86136/Documents/python大資料分析/課本原始碼以及資料/chapter6/demo/data/data.csv' # 讀取資料 data = pd.read_csv(discfile) # 時序圖 import matplotlib.pyplot as plt plt.rcParams['font.sans-serif'] = ['SimHei'] # 用來正常顯示中文標籤 plt.rcParams['axes.unicode_minus'] = False # 用來正常顯示負號 data.plot() plt.show() # 自相關圖 from statsmodels.graphics.tsaplots import plot_acf plot_acf(data['y']).show() 對y(財政收入)進行平穩性檢驗 # 平穩性檢測 from statsmodels.tsa.stattools import adfuller as ADF print('原始序列的ADF檢驗結果為:', ADF(data['y'])) # 返回值依次為adf、pvalue、usedlag、nobs、critical values、icbest、regresults、resstore # 差分後的結果 D_data = data.diff().dropna() feature = ['x1', 'x2', 'x3', 'x4', 'x5', 'x6', 'x7', 'x8', 'x9', 'x10', 'x11', 'x12', 'x13', 'y'] # 屬性所在列 D_data.columns = feature D_data.plot() # 時序圖 plt.show() plot_acf(D_data['y']).show() # 自相關圖 from statsmodels.graphics.tsaplots import plot_pacf plot_pacf(D_data['y']).show() # 偏自相關圖 print('差分序列的ADF檢驗結果為:', ADF(D_data['y'])) # 平穩性檢測 # 白噪聲檢驗 from statsmodels.stats.diagnostic import acorr_ljungbox print('差分序列的白噪聲檢驗結果為:', acorr_ljungbox(D_data['y'], lags=1)) # 返回統計量和p值 from statsmodels.tsa.arima_model import ARIMA # 定階 data['y'] = data['y'].astype(float) pmax = int(len(D_data)/10) # 一般階數不超過length/10 qmax = int(len(D_data)/10) # 一般階數不超過length/10 bic_matrix = [] # BIC矩陣 for p in range(pmax+1): tmp = [] for q in range(qmax+1): try: # 存在部分報錯,所以用try來跳過報錯。 tmp.append(ARIMA(data['y'], (p,1,q)).fit().bic) except: tmp.append(None) bic_matrix.append(tmp) bic_matrix = pd.DataFrame(bic_matrix) # 從中可以找出最小值 p,q = bic_matrix.stack().idxmin() # 先用stack展平,然後用idxmin找出最小值位置。 print('BIC最小的p值和q值為:%s、%s' %(p,q)) model = ARIMA(data['y'], (p,1,q)).fit() # 建立ARIMA(0, 1, 1)模型 print('模型報告為:\n', model.summary2()) print('預測未來2年,其預測結果、標準誤差、置信區間如下:\n', model.forecast(2))
三、結論
灰色預測演算法+SVR演算法預測的模型效果更好