神經網路中依賴於上下文的處理的連續學習
Continuous Learning of Context-dependent Processing in Neural Networks
作者: Guanxiong Zeng, Yang Chen, Bo Cui and Shan Yu
5 Oct 2018
今天下午陳陽師兄來講他最近的工作,感覺挺巧妙的,主要是解決兩個問題,神經網路會遺忘和連續學習的問題。
Orthogonal Weights Modification (OWM)
一個神經網路先學習一個任務,訓練完成後,再進行另外一個任務的訓練,往往會將第一個任務遺忘。但人腦並不是這樣,這個方法就是要解決這個問題。給兩個任務先後學習,給兩個任務的輸入,希望神經網路的結果都是正確的。
我的理解是這個方法的原理是利用正交空間的思想,使得學習第二個任務時候不影響第一個任務的解:
只要學習時更新權重的方向 與原來的輸入 都正交,就不會影響原來的解。由矩陣論的性質可知,正交投影矩陣
$
滿足這個性質。即任意一個向量 ,都可以分解成原來的輸入空間 上的分量和與 正交的分量,先用最小二乘法求解輸入空間 上的分量有
則 在空間 上的分量為 ,那麼與 正交的分量為
即 , 為一個很小的正數,防止求逆出現問題。訓練任務2的時候,只要更新的梯度先投影到正交空間上,然後梯度下降,就可以保證訓練時任務1的結果不受影響。在實際訓練中, 可以遞迴的求解:
-
(a)隨機初始化每層的權重 和投影矩陣
-
(b)對於第 個任務的第 個batch,用BP演算法求解出每層的更新權重
-
(c)更新權重( 時預先設定的步長)
-
(d)重複(b)(c),訓練任務
-
(e)當任務 訓練完成後,更新 ,(