1. 程式人生 > >線性迴歸 梯度下降演算法 overshot the minimun現象

線性迴歸 梯度下降演算法 overshot the minimun現象

在梯度下降演算法中,理論上有一個步長steep需要我們設定。steep的設定非常重要,如果設定不當,我們的梯度下降演算法可能就得不到我們想要的結果。

一:步長不當導致的問題

如果步長太短,很顯然我們訓練集訓練的時間就會加長。如果訓練集比較多,這也是致命的。

如果步長太長,可能出現Overshoot the minimun(越過極小值點)現象。甚至梯度下降演算法無法收斂,找不到我們要的極小值。


二:tensorflow 解決步長問題

line search (數學渣渣,沒看懂)演算法能解決步長問題。結果是在不斷逼近最小值時,步長會不斷減小。