1. 程式人生 > >基於Attention理論的LSTM 隱藏層權重自調節機制

基於Attention理論的LSTM 隱藏層權重自調節機制

整體思路如下:

在兩層LSTM結構中,或者是BiLSTM結構中,其實不同隱藏層的輸出權重應該更有所選擇才好,比如用於情感分析的一句話,我今天心情很好,上午去打球了,下午去打遊戲了。如果我們採用傳統的方法去訓練LSTM再分類的話,會發現,這個分類結果可能是中性,當然這和訓練集有關,如何減小這種誤判斷呢。我們就需要在Hidden的時候引入注意力機制,自動調節hidden,忽略對結果不重要的語素。即加大 我今天心情很好,減小上午去打球了,採用乘法門來控制,類似於LSTM中的遺忘機制,這裡採用sigmoid來啟用,控制門大小。

網路結構如下:

 

 

整體效果:

比之前用傳統的LSTM 以及一些變種的LSTM效果都要好,勝過單一matching pyramid。