LSTM時序預測時歸一化問題
LSTM時序預測時歸一化問題
在做專案時,發現數據歸一化對模型訓練結果影響很大,其中還涉及到很多細節問題。以下通過空氣汙染預測的例子來進行說明。(資料和程式碼網上都有提供)
描述:在空氣汙染預測例子中,共有8個屬性,利用過去24小時的汙染資料和天氣條件預測下一個時刻(t+1)可能的汙染值
問題:
不對資料進行歸一化處理時,loss(mae)將會很大,lstm模型也訓練不好,如下圖所示:
預測出的結果是相等的常量,如下圖所示:,顯然,這不是我想要的結果
解決:
對輸入資料進行歸一化,使用sklearn.preporcessing
scaler = MinMaxScaler(feature_range=(0, 1)) scaled = scaler.fit_transform(values)
原始資料的shape是(n,dim),其中n為樣本數目,dim為維度(屬性個數),對每個維度進行歸一化,使得資料範圍都在(0,1)之間。
在獲取預測結果的時候,需要反歸一化。注意反歸一化時需要與歸一化時的資料shape相同。
最終的預測結果如下圖:
相關推薦
LSTM時序預測時歸一化問題
LSTM時序預測時歸一化問題 在做專案時,發現數據歸一化對模型訓練結果影響很大,其中還涉及到很多細節問題。以下通過空氣汙染預測的例子來進行說明。(資料和程式碼網上都有提供) 描述:在空氣汙染預測例子中,共有8個屬性,利用過去24小時的汙染資料和天氣條件預測下一個時刻(t+1)可能的汙染值
機器學習資料處理時label錯位對未來資料做預測 機器學習經典模型簡單使用及歸一化(標準化)影響
這篇文章繼上篇機器學習經典模型簡單使用及歸一化(標準化)影響,通過將測試集label(行)錯位,將部分資料作為對未來的預測,觀察其效果。 實驗方式 以不同方式劃分資料集和測試集 使用不同的歸一化(標準化)方式 使用不同的模型 將測試集label錯位,計算出MSE的大小 不斷增大錯位的
時序預測歸一化
在做預測問題時,當資料的量綱存在較大差異時,歸一化非常重要。以下問題是我遇到的: 1.多個維度的資料,是對每一個樣本進行歸一化?還是對每一個維度(屬性)歸一化 2.訓練集和測試集放在一起歸一化?還是分開歸一化? 問題1: 對每一個屬性進行歸一化,從sklearn的文件中提到:MinM
長短期記憶(LSTM)系列_LSTM的資料準備(4)——如何歸一化標準化長短期記憶網路的資料
導讀: 在訓練神經網路(例如長短期記憶復現神經網路)時,可能需要縮放序列預測問題的資料。 當輸入資料序列分佈並不標準,或者變化幅度(標準差)過大時,這會減慢網路的學習和收斂速度,也會阻礙網路的學習效率。 因此您需要了解如何歸一化和標準化序列預測資料,以及如何確定將哪中形式用於輸入和輸出變
Python基礎day-18[面向對象:繼承,組合,接口歸一化]
ini 關系 acl 報錯 子類 wan 使用 pytho 減少 繼承: 在Python3中默認繼承object類。但凡是繼承了object類以及子類的類稱為新式類(Python3中全是這個)。沒有繼承的稱為經典類(在Python2中沒有繼承object以及他的子類都是
轉:數據標準化/歸一化normalization
簡單 此外 urn csdn bsp center sum 又能 超出 轉自:數據標準化/歸一化normalization 這裏主要講連續型特征歸一化的常用方法。離散參考[數據預處理:獨熱編碼(One-Hot Encoding)]。 基礎知識參考: [均值、方差與協方
numpy 矩陣歸一化
ges 矩陣歸一化 mali zeros sha ati ret turn tile new_value = (value - min)/(max-min) def normalization(datingDatamat): max_arr = datingData
【深度學習】批歸一化(Batch Normalization)
學習 src 試用 其中 put min 平移 深度 優化方法 BN是由Google於2015年提出,這是一個深度神經網絡訓練的技巧,它不僅可以加快了模型的收斂速度,而且更重要的是在一定程度緩解了深層網絡中“梯度彌散”的問題,從而使得訓練深層網絡模型更加容易和穩定。所以目前
Hulu機器學習問題與解答系列 | 二十三:神經網絡訓練中的批量歸一化
導致 xsl 泛化能力 恢復 不同 詳細 過程 ice ini 來看看批量歸一化的有關問題吧!記得進入公號菜單“機器學習”,復習之前的系列文章噢。 今天的內容是 【神經網絡訓練中的批量歸一化】 場景描述 深度神經網絡的訓練中涉及諸多手調參數,如學習率,權重衰減系數,
softmax_loss的歸一化問題
outer bubuko prot 歸一化 實現 大小 定義 num blog cnn網絡中,網絡更新一次參數是根據loss反向傳播來,這個loss是一個batch_size的圖像前向傳播得到的loss和除以batch_size大小得到的平均loss。 softmax_l
機器學習數據預處理——標準化/歸一化方法總結
目標 out enc 並不是 depend 區間 standards ima HA 通常,在Data Science中,預處理數據有一個很關鍵的步驟就是數據的標準化。這裏主要引用sklearn文檔中的一些東西來說明,主要把各個標準化方法的應用場景以及優缺點總結概括,以來充當
python 圖像歸一化作業代碼代編程代寫圖python作業
一個 return clas contents eth AR ips port cto python 圖像歸一化作業代碼代編程代寫圖python作業from PIL import Image import os import sys import numpy as np i
第十八節,TensorFlow中使用批量歸一化
item con 用法 它的 線性 dev 樣本 需要 sca 在深度學習章節裏,已經介紹了批量歸一化的概念,詳情請點擊這裏:第九節,改善深層神經網絡:超參數調試、正則化以優化(下) 由於在深層網絡中,不同層的分布都不一樣,會導致訓練時出現飽和的問題。而批量歸一化就是為了緩
第9章 優化方法和歸一化
ase 實現 rop 應該 rom 大數據 moment tps 足夠 9章 優化方法和歸一化 “Nearly all of deep learning is powered by one very important algorithm: Stochastic Gradi
梯度下降、過擬合和歸一化
href tps 課程 容易 視頻 iteration col one shu 好的課程應該分享給更多人:人工智能視頻列表-尚學堂,點開任意一個之後會發現他們會提供系列課程整合到一起的百度網盤下載地址,包括視頻+代碼+資料,免費的優質資源。當然,現在共享非常多,各種mooc
數據歸一化/標準化
創建 mat bubuko random ali n) 課程 綜合 標準 ‘‘‘ 【課程2.3】 數據歸一化/標準化 數據的標準化(normalization)是將數據按比例縮放,使之落入一個小的特定區間。 在某些比較和評價的指標處理中經常會用到,去除數
Java基於opencv—歸一化
ram image eight 方向 都是 area lock turn 意思 Opencv中提供了resize函數,可以把圖像調整到相同大小 Java中resize函數的聲明,內部調用的都是native方法 public static void resize(Mat
BatchNormalization批量歸一化
批量 改變 man mil ali 好處 nor roman times 動機: 防止隱層分布多次改變,BN讓每個隱層節點的激活輸入分布縮小到-1和1之間. 好處: 縮小輸入空間,從而降低調參難度;防止梯度爆炸/消失,從而加速網絡收斂. BN計算公式: BatchNor
DIFFERENTIABLE LEARNING-TO-NORMALIZE VIA SWITCHABLE NORMALIZATION(SN,切換歸一化)
這是根據不同作者寫的以及我個人的理解做出的總結,只是方便我個人下次閱讀,如有侵權,請聯絡我刪除。 論文參考:https://zhuanlan.zhihu.com/p/39296570 論文參考:http://www.sohu.com/a/241640030_395209