1. 程式人生 > 其它 >對資料選擇合適的時序模型和合適的預測方法

對資料選擇合適的時序模型和合適的預測方法

待分析資料如下(data.csv):

 特徵值說明:

x1 社會從業人數
x2 在崗職工工資總額
x3 社會消費零售總額
x4 城鎮居民人均可支配收入
x5 城鎮居民人均消費性支出
x6 年末總人口
x7 全社會固定資產投資額
x8 地區生產總值
x9 第一生產值
x10 稅收
x11 居民消費價格指數
x12 第三產業與第二產業產值比
x13 居民消費水平
y 財政收入

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

一、對資料進行分析

 讀入資料

import numpy as np
import pandas as pd
inputfile 
= 'C:/Users/86136/Documents/python大資料分析/課本原始碼以及資料/chapter6/demo/data/data.csv' # 輸入的資料檔案 data = pd.read_csv(inputfile) # 讀取資料

1、描述性統計分析

# 描述性統計分析
description = [data.min(), data.max(), data.mean(), data.std()]  # 依次計算最小值、最大值、均值、標準差
description = pd.DataFrame(description, index = ['Min', 'Max', 'Mean', 'STD
']).T # 將結果存入資料框 print('描述性統計結果:\n',np.round(description, 2)) # 保留兩位小數

分析結果:

 

 

2、相關性分析

# 相關性分析
corr = data.corr(method = 'pearson')  # 計算相關係數矩陣
print('相關係數矩陣為:\n',np.round(corr, 2))  # 保留兩位小數

分析結果:

 

 

 繪製相關性熱力圖

# 繪製熱力圖
import matplotlib.pyplot as plt
import seaborn as sns
plt.subplots(figsize
=(10, 10)) # 設定畫面大小 sns.heatmap(corr, annot=True, vmax=1, square=True, cmap="Greens") #cmap可自定義顏色 plt.title('相關性熱力圖') plt.show() plt.close

熱力圖結果:

 

 

由相關係數矩陣以及相關性熱力圖可知x11(居民消費價格指數)對y(財政收入)影響最小

二、灰色預測演算法+SVR演算法

1、lasso迴歸選取關鍵屬性

lasso = Lasso(1000)  # 呼叫Lasso()函式,設定λ的值為1000
lasso.fit(data.iloc[:,0:13],data['y'])
mask = lasso.coef_ != 0  # 返回一個相關係數是否為零的布林陣列
mask = np.append(mask,True)
outputfile ='C:/Users/86136/Documents/python大資料分析/課本原始碼以及資料/chapter6/demo/tmp/new_reg_data.csv'  # 輸出的資料檔案
new_reg_data = data.iloc[:, mask]  # 返回相關係數非零的資料
new_reg_data.to_csv(outputfile)  # 儲存資料
print('輸出資料的維度為:',new_reg_data.shape)  # 檢視輸出資料的維度

2、構建灰度預測模型並預測

import sys
sys.path.append('C:/Users/86136/Documents/python大資料分析/課本原始碼以及資料/chapter6/demo/code')  # 設定路徑
import numpy as np
import pandas as pd
from GM11 import GM11  # 引入自編的灰色預測函式

inputfile1 = '../tmp/new_reg_data.csv'  # 輸入的資料檔案
inputfile2 = '../data/data.csv'  # 輸入的資料檔案
new_reg_data = pd.read_csv(inputfile1)  # 讀取經過特徵選擇後的資料
data = pd.read_csv(inputfile2)  # 讀取總的資料
new_reg_data.index = range(1994, 2014)
new_reg_data.loc[2014] = None
new_reg_data.loc[2015] = None
l = ['x1', 'x3', 'x4', 'x5', 'x6', 'x7', 'x8', 'x13']
for i in l:
  f = GM11(new_reg_data.loc[range(1994, 2014),i].values)[0]
  new_reg_data.loc[2014,i] = f(len(new_reg_data)-1)  # 2014年預測結果
  new_reg_data.loc[2015,i] = f(len(new_reg_data))  # 2015年預測結果
  new_reg_data[i] = new_reg_data[i].round(2)  # 保留兩位小數
outputfile = '../tmp/new_reg_data_GM11.xls'  # 灰色預測後儲存的路徑
y = list(data['y'].values)  # 提取財政收入列,合併至新資料框中
y.extend([np.nan,np.nan])
new_reg_data['y'] = y
new_reg_data.to_excel(outputfile)  # 結果輸出
print('預測結果為:\n',new_reg_data.loc[2014:2015,:])  # 預測結果展示

GM11.py

#-*- coding: utf-8 -*-

def GM11(x0): #自定義灰色預測函式
  import numpy as np
  x1 = x0.cumsum() #1-AGO序列
  z1 = (x1[:len(x1)-1] + x1[1:])/2.0 #緊鄰均值(MEAN)生成序列
  z1 = z1.reshape((len(z1),1))
  B = np.append(-z1, np.ones_like(z1), axis = 1)
  Yn = x0[1:].reshape((len(x0)-1, 1))
  [[a],[b]] = np.dot(np.dot(np.linalg.inv(np.dot(B.T, B)), B.T), Yn) #計算引數
  f = lambda k: (x0[0]-b/a)*np.exp(-a*(k-1))-(x0[0]-b/a)*np.exp(-a*(k-2)) #還原值
  delta = np.abs(x0 - np.array([f(i) for i in range(1,len(x0)+1)]))
  C = delta.std()/x0.std()
  P = 1.0*(np.abs(delta - delta.mean()) < 0.6745*x0.std()).sum()/len(x0)
  return f, a, b, x0[0], C, P #返回灰色預測函式、a、b、首項、方差比、小殘差概率

3、構建SVR迴歸預測模型

import matplotlib.pyplot as plt
from sklearn.svm import LinearSVR

inputfile = 'C:/Users/86136/Documents/python大資料分析/課本原始碼以及資料/chapter6/demo/tmp/new_reg_data_GM11.xls'  # 灰色預測後儲存的路徑
data = pd.read_excel(inputfile)  # 讀取資料
feature = ['x1', 'x3', 'x4', 'x5', 'x6', 'x7', 'x8', 'x13']  # 屬性所在列
#data_train = data.loc[range(1994,2014)].copy()  # 取2014年前的資料建模
data_train = data.iloc[0:20].copy() # 取2014年前的資料建模
data_mean = data_train.mean()
data_std = data_train.std()
data_train = (data_train - data_mean)/data_std  # 資料標準化
x_train = data_train[feature].values  # 屬性資料
y_train = data_train['y'].values # 標籤資料

linearsvr = LinearSVR()  # 呼叫LinearSVR()函式
linearsvr.fit(x_train,y_train)
x = ((data[feature] - data_mean[feature])/data_std[feature]).values  # 預測,並還原結果。
data['y_pred'] = linearsvr.predict(x) * data_std['y'] + data_mean['y']
outputfile = '../tmp/new_reg_data_GM11_revenue.xls'  # SVR預測後儲存的結果
data.to_excel(outputfile)

print('真實值與預測值分別為:\n',data[['y','y_pred']])

fig = data[['y','y_pred']].plot(subplots = True, style=['b-o','r-*'])  # 畫出預測結果圖
plt.show()

預測結果:

經實際值與預測值比較可知,灰色預測演算法+SVR演算法預測效果還不錯

 

 

所預測的2014(20)年和2015(21)年財政收入如下:

 

 

 三、ARMA模型

1、平穩性檢驗

讀資料

import pandas as pd
# 引數初始化
discfile = 'C:/Users/86136/Documents/python大資料分析/課本原始碼以及資料/chapter6/demo/data/data.csv'
# 讀取資料
data = pd.read_csv(discfile)

時序圖

# 時序圖
import matplotlib.pyplot as plt
plt.rcParams['font.sans-serif'] = ['SimHei']  # 用來正常顯示中文標籤
plt.rcParams['axes.unicode_minus'] = False  # 用來正常顯示負號
data.plot()
plt.show()

自相關圖

# 自相關圖
from statsmodels.graphics.tsaplots import plot_acf
plot_acf(data['y']).show()

對y(財政收入)進行平穩性檢驗

# 平穩性檢測
from statsmodels.tsa.stattools import adfuller as ADF
print('原始序列的ADF檢驗結果為:', ADF(data['y']))
# 返回值依次為adf、pvalue、usedlag、nobs、critical values、icbest、regresults、resstore
# 差分後的結果
D_data = data.diff().dropna()
feature = ['x1', 'x2', 'x3', 'x4', 'x5', 'x6', 'x7', 'x8', 'x9', 'x10', 'x11', 'x12', 'x13', 'y']  # 屬性所在列
D_data.columns = feature
D_data.plot()  # 時序圖
plt.show()
plot_acf(D_data['y']).show()  # 自相關圖
from statsmodels.graphics.tsaplots import plot_pacf
plot_pacf(D_data['y']).show()  # 偏自相關圖
print('差分序列的ADF檢驗結果為:', ADF(D_data['y']))  # 平穩性檢測

白噪聲檢驗

# 白噪聲檢驗
from statsmodels.stats.diagnostic import acorr_ljungbox
print('差分序列的白噪聲檢驗結果為:', acorr_ljungbox(D_data['y'], lags=1))  # 返回統計量和p值

2、模型

from statsmodels.tsa.arima_model import ARIMA

# 定階
data['y'] = data['y'].astype(float) 
pmax = int(len(D_data)/10)  # 一般階數不超過length/10
qmax = int(len(D_data)/10)  # 一般階數不超過length/10 
bic_matrix = []  # BIC矩陣
for p in range(pmax+1):
  tmp = []
  for q in range(qmax+1):
    try:  # 存在部分報錯,所以用try來跳過報錯。
      tmp.append(ARIMA(data['y'], (p,1,q)).fit().bic)
    except:
      tmp.append(None)
  bic_matrix.append(tmp)

bic_matrix = pd.DataFrame(bic_matrix)  # 從中可以找出最小值

p,q = bic_matrix.stack().idxmin()  # 先用stack展平,然後用idxmin找出最小值位置。
print('BIC最小的p值和q值為:%s、%s' %(p,q)) 
model = ARIMA(data['y'], (p,1,q)).fit()  # 建立ARIMA(0, 1, 1)模型
print('模型報告為:\n', model.summary2())
print('預測未來2年,其預測結果、標準誤差、置信區間如下:\n', model.forecast(2))

預測結果:

 

 

 

四、總結

灰色預測演算法+SVR演算法預測的模型效果更好