1. 程式人生 > >Tensorflow 激勵函式 Activation Function

Tensorflow 激勵函式 Activation Function

  執行時啟用神經網路中某一部分神經元,將啟用資訊向後傳入下一層的神經系統。激勵函式的實質是非線性方程。 Tensorflow 的神經網路 裡面處理較為複雜的問題時都會需要運用激勵函式 activation function.
  如下圖
  
  這裡寫圖片描述

在少量層結構中, 我們可以嘗試很多種不同的激勵函式. 在卷積神經網路 Convolutional neural networks 的卷積層中, 推薦的激勵函式是 relu. 在迴圈神經網路中 recurrent neural networks, 推薦的是 tanh 或者是 relu