長短期記憶(LSTM)系列_1.1、迴歸神經網路在時間序列預測中的介紹和應用
摘要,通過本文你可以學到:
- 傳統的時間序列預測方法側重於具有線性關係的單變數資料以及固定和手動診斷的時間依賴性。
- 神經網路增加了學習可能的噪聲和非線性關係的能力,其中任意定義但固定數量的輸入和輸出支援多變數和多步預測。
- 遞迴神經網路增加了有序觀察的顯式處理和從上下文學習時間依賴的承諾。
遞迴神經網路是一種神經網路,它在輸入觀察中添加了對順序的顯式處理。
這種能力表明,遞迴神經網路的前景是學習輸入序列的時間背景,以便做出更好的預測。也就是說,進行預測所需的一系列滯後觀察不再必須像傳統的時間序列預測那樣被診斷和指定,甚至不能用經典神經網路進行預測。相反,可以學習時間依賴性,也可以學習這種依賴性的變化。
在這篇文章中,您將發現迴圈神經網路在時間序列預測中的承諾能力。閱讀這篇文章後,你會知道:
- 傳統時間序列預測方法的重點和隱含(如果不是明確的話)限制。
- 使用傳統前饋神經網路進行時間序列預測的能力。
- 復發神經網路在傳統神經網路之上做出的額外承諾以及這在實踐中可能意味著什麼的暗示。
讓我們開始吧。
時間序列預測
時間序列預測很困難。
與分類和迴歸的簡單問題不同,時間序列問題增加了觀察之間的順序或時間依賴性的複雜性。
這可能很困難,因為在擬合和評估模型時需要專門處理資料。它還有助於建模,提供趨勢和季節性等額外結構,可用於提高模型技能。
傳統上,時間序列預測一直由ARIMA等線性方法主導,因為它們對許多問題都有很好的理解和有效性。但是這些傳統方法也受到一些限制,例如:
- 專注於完整資料:通常不支援丟失或損壞的資料。
- 關注線性關係:假設線性關係排除了更復雜的關節分佈。
- 關注固定的時間依賴性:必須診斷和指定不同時間的觀察之間的關係,以及作為輸入提供的滯後觀察的數量。
- 關注單變數資料:許多現實問題都有多個輸入變數。
- 專注於一步預測:許多現實問題需要長時間的預測。
時間序列的神經網路
神經網路近似於從輸入變數到輸出變數的對映函式。
出於多種原因,這種一般能力對於時間序列是有價值的。
- 堅固耐用。神經網路對輸入資料和對映函式中的噪聲具有魯棒性,甚至可以在存在缺失值的情況下支援學習和預測。
- 非線性。神經網路不對對映函式做出強有力的假設,並且很容易學習線性和非線性關係。
更具體地,神經網路可以被配置為在對映函式中支援任意定義但固定數量的輸入和輸出。這意味著:
- 多變數輸入。可以指定任意數量的輸入要素,為多變數預測提供直接支援。
- 多步預測。可以指定任意數量的輸出值,為多步驟甚至多變數預測提供直接支援。
-
僅就這些功能而言,前饋神經網路被廣泛用於時間序列預測。
隱含於神經網路的使用是要求確實存在從輸入到輸出的有意義的對映以便學習。對隨機遊走的對映建模將不會比永續性模型更好(例如,使用最後看到的觀察作為預測)。
這種可學習的對映函式的期望也使得其中一個限制變得清晰:對映函式是固定的或靜態的。
- 固定輸入。滯後輸入變數的數量是固定的,與傳統的時間序列預測方法相同。
固定輸出。輸出變數的數量也是固定的; 雖然這是一個更微妙的問題,但這意味著對於每個輸入模式,必須生成一個輸出。
時間序列的遞迴神經網路
當從輸入到輸出學習對映函式時,像長短期記憶網路這樣的遞迴神經網路在觀察之間增加了對順序的顯式處理。
序列的新增是近似函式的新維度。網路不是單獨將輸入對映到輸出,而是能夠隨時間學習輸入到輸出的對映函式。
此功能可解鎖神經網路的時間序列。
除了使用神經網路進行時間序列預測的一般好處之外,遞迴神經網路還可以從資料中學習時間依賴性。
- 學會了時間依賴。學習了隨時間觀察的背景。
也就是說,在最簡單的情況下,網路從序列中一次顯示一個觀察點,並且可以瞭解它之前看到的哪些觀察結果是相關的以及它們如何與預測相關。
迴圈神經網路的前景是可以學習輸入資料中的時間依賴性。不需要指定一組固定的滯後觀察值。
在這個承諾中隱含的是,也可以學習隨環境變化的時間依賴性。
但是,迴圈神經網路可能更多。
優良作法是從時間序列資料中手動識別和移除此類系統結構,以使問題更容易建模(例如,使序列靜止),這在使用遞迴神經網路時仍然是最佳實踐。但是,這些網路的一般能力表明,這可能不是熟練模型的要求。
從技術上講,可用的上下文可能允許迴圈神經網路學習:
- 趨勢。時間序列的增加或減少水平,甚至是這些變化的變化。
- 季節性。隨著時間的推移不斷重複模式