1. 程式人生 > 實用技巧 >入門卷積神經網路(四)誤差函式(損失函式)

入門卷積神經網路(四)誤差函式(損失函式)

誤差函式(損失函式)

監督學習的神經網路需要一個函式來測度模型的輸出值p和真實因變數值y之間的差異,一般這種差異被稱為殘差或者誤差。

但一個模型完美時(雖然不存在),其誤差為0.當模型存在問題時,誤差不管是負值還是正值,都偏離0.誤差離0越近,說明模型越好。

常用的誤差函式

均方誤差

mse
這裡 Y i 表示神經網路的輸出,Yi’'表示監督資料,i表示資料的維度。

這種損失函式通常用在實數值連續變數的迴歸問題上,並且對於殘差較大的情況給予更多的權重。

交叉熵損失:

在這裡插入圖片描述
log表示以e為底的自然對數,Yk是神經網路的輸出,Tk是正確解得標籤。而且Tk中只有正確解得標籤的索引為1,其餘均為0.(one-hot表示)

在這裡插入圖片描述
第一個公式是針對單個數據的損失函式,第二個公式要求所有損失函式的總和。
假設資料一共有N個,Tnk表示第n個數據的第k個元素的值(Ynk是神經網路的輸出,Tnk是監督資料)。其實就是把單個損失函式擴大了N份,最後再除以N,求平均損失函式。

舉例:
在這裡插入圖片描述