1. 程式人生 > >邏輯迴歸損失函式

邏輯迴歸損失函式

二分類

眾所周知,二分類問題的損失函式為:

其中y代表標籤值(0,1);h(θ,x)代表通過假設假設函式(sigmoid 函式)計算出的函式值(概率),sigmoid 函式的取值區間為(0,1)

â对æ°å½æ°âçå¾çæç´¢ç»æ

當標籤值為1時,h(θ,x)的值為預測y為1的概率,這個值越靠近0,logh(θ,x)的值就會越大,從而對loss值的懲罰也就越大;反之當標籤值為0時,1-h(θ,x)的值為預測y為0的概率,這個值越靠近0,log(1-h(θ,x))的值就會越大。

二分類問題的決策函式為:

 

多分類(softmax)

二分類問題也可以看做是多分類問題的特例,由此,K分類問題的loss函式表示式也可以延伸為:

多分類問題(softmax)的決策函式為:

(與二分類函式的決策函式比較,二分類函式的決策函式依然可以視為K分類問題的特例)

 

總結

由此不難看出,在keras裡面activation選擇sigmoid的時候,與之對應的loss為binary_crossentropy;同理,activation選擇softmax的時候,與之對應的loss為categorical_crossentropy

 

參考資料