1. 程式人生 > >深度學習(十六)

深度學習(十六)

1、學習率改變的新方法:剛開始陡升,後來慢慢下降;其中32是最大的學習率與最小的學習率之比,10代表第一個epoch升高,後面九個epoch緩緩下降
這裡寫圖片描述
2、Concat pooling:即將啟用值,啟用值的平均池化,啟用值的最大池化連線在一起
在這裡插入圖片描述
3、注意力機制其實就是對不同的狀態進行加權,這在程式中的具體體現就是編寫了一個迷你網路,一般只有兩層線性層跟一層非線性層,通過將不同的狀態輸出得個權值的集合。這裡就體現出端到端學習的優點,我們只需要處理資料,選擇合適的結構,設定自己的損失函式就夠了,至於怎麼得到合適的權值,完全交給損失函式。
4、在高維空間中,距離的意義不是特別大,比較常用的度量標準是角度,比如餘弦相似度。