1. 程式人生 > >Day3_attention is all you need 論文閱讀

Day3_attention is all you need 論文閱讀

感覺自己看的一臉懵b;

但看懂了這篇文章要講啥:

  1. RRN為背景的神經機器翻譯是seq2seq,但這樣帶來的問題是不可以平行計算,拖長時間,除此之外會使得尋找距離遠的單詞之間的依賴關係變得困難。而本文講的Attention機制就很好的解決了這個問題,並且也解決了遠距離之間的依賴關係問題。
  2. 前饋神經網路,有異於RNN,輸入層到輸出層之間沒有遞迴。輸入層到輸出層只是單向的傳輸。
  3.  -------------------------至於實現,自己一臉懵,明天繼續-------------打包回家------