1. 程式人生 > >Batch Normalization & Layer Normalization

Batch Normalization & Layer Normalization

Layer Normalization:
原文:Layer Normalization

Batch Normalization解決的是Internal Covariate Shift問題,即由於每一層的引數都在不斷變化,所以輸出的分佈也會不斷變化,造成梯度需要不斷適應新的資料分佈。所以,每一個mini batch裡,對每個維度進行歸一化。同時,為了反映資料的實際變化,再加上兩個引數。(感覺是因為出現了震盪的問題,所以會想到這一招)

Layer Normalization,對每一層的進行歸一化,所以就跟batch size什麼的沒有關係。

這麼理解,Batch Normalization是豎著來歸一,Layer Normalization是橫著來歸一。