1. 程式人生 > 實用技巧 >10.2 常見的Normalization方法(BN、LN、IN、GN)

10.2 常見的Normalization方法(BN、LN、IN、GN)

一、為什麼要Normalization?

二、常見的Normalization方法(BN、LN、IN、GN)

這節課我們來學習常見的Normalization方法(BN、LN、IN、GN)。

一、為什麼要Normalization?

其實這個問題在BN的論文中已經給了答案了,就是因為在深度學習中,出現一個ICS的問題。資料尺度/分佈的異常,導致模型訓練困難。

二、常見的Normalization方法(BN、LN、IN、GN)

這四種Normalization,相同的地方是,都要進行歸一化,即加減乘除操作。那他們的不同點在哪裡?因為beta和gamma都是超引數,所以不同的地方在於均值和方差的求取方式。

LN : 是在網路層裡面找均值和方差。

IN:例項,就是一張圖片。主要針對影象生成使用。

GN:分組。

1. Layer Normalization

BN不適用於變長的網路,比如RNN。比如右邊的圖。

2. Instance Normalization

3. Group Normalization