1. 程式人生 > >caffe學習筆記30-關於梯度消失與溢位

caffe學習筆記30-關於梯度消失與溢位

解決梯度消失問題的策略:
1.LSTM:通過選擇記憶和遺忘機制克服RNN的梯度消失問題
2.用無監督資料做分層預訓練,再用有監督資料fine-tune
3.ReLU:新的啟用函式解析性質更好,克服可sigmoid函式和tanh函式的梯度消失問題
4.輔助損失函式:googlenet中的兩個輔助損失函式,對淺層神經元直接傳遞梯度
5.Batch Normalization:逐層的尺度歸一

梯度溢位問題:
1.尺度不平衡的初始化容易導致網路NAN
2.Xavier的方差不變準則保持網路節點尺度不變