1. 程式人生 > >BN和L2 NORM的區別

BN和L2 NORM的區別

cat 差異 con 統計 強行 輸出 理論 但是 feature

bn是拉平各個feature的差異,而l2 norm是拉平各個樣本的差異,本來各個樣本的模長千變萬化,按照距離的概念,差別是很大的,但是l2 norm後,距離就變得有一個上界了,顯然樣本間差異變小了。而對於各個feature,本來各個feature的量級都可能不一樣,方差也就不一樣,bn讓方差為1,均值為0(理論上),各個feature的差異就小了, l2 norm並沒有改變feature之間的相對大小。 l2 norm是強行把同個維度的特征歸一化。batch norm是把不同維度的去均值歸一化, l2 norm是自己對自己,所以除以的值不盡相同,batch norm是基於統計全局,所以均值和方差每個樣本都是相同值。 對於不同layer輸出的concat,還是l2 norm比較合適 。

BN和L2 NORM的區別