1. 程式人生 > 其它 >時序模型

時序模型

import pandas as pd
import numpy as np
from sklearn.linear_model import Lasso

inputfile = './data.csv' # 輸入的資料檔案
data = pd.read_csv(inputfile) # 讀取資料

lasso = Lasso(1000) # 呼叫Lasso()函式,設定λ的值為1000
lasso.fit(data.iloc[:,0:13],data['y'])

data = data.iloc[:, 0:13]

mask = lasso.coef_ != 0 # 返回一個相關係數是否為零的布林陣列
outputfile ='./new_reg_data.csv' # 輸出的資料檔案
new_reg_data = data.iloc[:, mask] # 返回相關係數非零的資料
new_reg_data.to_csv(outputfile) # 儲存資料
print('輸出資料的維度為:',new_reg_data.shape) # 檢視輸出資料的維度


import matplotlib.pyplot as plt
from sklearn.svm import LinearSVR

inputfile = './new_reg_data_GM11.xls' # 灰色預測後儲存的路徑
data = pd.read_excel(inputfile) # 讀取資料
feature = ['x1', 'x3', 'x4', 'x5', 'x6', 'x7', 'x8', 'x13'] # 屬性所在列
data_train = data.iloc[0:20].copy() # 取2014年前的資料建模
data_mean = data_train.mean()
data_std = data_train.std()
data_train = (data_train - data_mean)/data_std # 資料標準化
x_train = data_train[feature].values # 屬性資料
y_train = data_train['y'].values # 標籤資料

linearsvr = LinearSVR() # 呼叫LinearSVR()函式
linearsvr.fit(x_train,y_train)
x = ((data[feature] - data_mean[feature])/data_std[feature]).values # 預測,並還原結果。
data['y_pred'] = linearsvr.predict(x) * data_std['y'] + data_mean['y']
outputfile = './new_reg_data_GM11_revenue.xls' # SVR預測後儲存的結果
data.to_excel(outputfile)

print('真實值與預測值分別為:\n',data[['y','y_pred']])

fig = data[['y','y_pred']].plot(subplots = True, style=['b-o','r-*']) # 畫出預測結果圖
plt.show()

 

灰度預測及linearSVR:

  

 

 

 

import pandas as pd
import numpy as np
import matplotlib.pyplot as plt

plt.rcParams['font.sans-serif'] = ['SimHei'] # 用來正常顯示中文標籤
plt.rcParams['axes.unicode_minus'] = False # 用來正常顯示負號

inputfile = './data.csv' # 輸入的資料檔案
data = pd.read_csv(inputfile) # 讀取資料

datetime = range(1994, 2014)
# X = list(datetime)
X = []
for i in datetime:
X.append(str(i))

y = data['y']

# 時序圖
plt.figure(figsize=(10, 6))
plt.plot(X, y)
plt.scatter(X, y)
plt.show()


pre_data = pd.DataFrame()
pre_data['X'] = X
pre_data['y'] = y
pre_data.set_index('X', inplace=True)
pre_data.head()
from statsmodels.graphics.tsaplots import plot_acf
plot_acf(pre_data).show()
from statsmodels.tsa.stattools import adfuller as ADF
print('原始序列的ADF檢驗結果為:', ADF(pre_data['y']))


import warnings
warnings.filterwarnings("ignore")

# 差分後的結果
D_data = pre_data.diff().dropna()
D_data.columns = ['y差分']
D_data.plot() # 時序圖
plt.show()
plot_acf(D_data).show() # 自相關圖
from statsmodels.graphics.tsaplots import plot_pacf
plot_pacf(D_data).show() # 偏自相關圖
print('差分序列的ADF檢驗結果為:', ADF(D_data['y差分'])) # 平穩性檢測
from statsmodels.stats.diagnostic import acorr_ljungbox
print('差分序列的白噪聲檢驗結果為:', acorr_ljungbox(D_data, lags=1)) # 返回統計量和p值
from statsmodels.tsa.arima_model import ARIMA

# 定階
pre_data['y'] = pre_data['y'].astype(float)
pmax = int(len(D_data)/10) # 一般階數不超過length/10
qmax = int(len(D_data)/10) # 一般階數不超過length/10
bic_matrix = [] # BIC矩陣
for p in range(pmax+1):
tmp = []
for q in range(qmax+1):
try: # 存在部分報錯,所以用try來跳過報錯。
tmp.append(ARIMA(pre_data, (p,1,q)).fit().bic)
except:
tmp.append(None)
bic_matrix.append(tmp)

bic_matrix = pd.DataFrame(bic_matrix) # 從中可以找出最小值

p,q = bic_matrix.stack().astype('float64').idxmin() # 先用stack展平,然後用idxmin找出最小值位置。
print('BIC最小的p值和q值為:%s、%s' %(p,q))

model = ARIMA(pre_data, (0,1,1)).fit()
print('模型報告為:\n', model.summary2())
print('預測未來2年(2014和2015),其預測結果、標準誤差、置信區間如下:\n', model.forecast(2))

 

AERIMA  及預測結果