邏輯迴歸(logistic regression)的本質——極大似然估計
阿新 • • 發佈:2019-01-01
前言
邏輯迴歸是分類當中極為常用的手段,因此,掌握其內在原理是非常必要的。我會爭取在本文中儘可能簡明地展現邏輯迴歸(logistic regression)的整個推導過程。
什麼是邏輯迴歸
邏輯迴歸在某些書中也被稱為對數機率迴歸,明明被叫做迴歸,卻用在了分類問題上,我個人認為這是因為邏輯迴歸用了和迴歸類似的方法來解決了分類問題。
假設有一個二分類問題,輸出為,而線性迴歸模型產生的預測值為是實數值,我們希望有一個理想的階躍函式來幫我們實現值到值的轉化。
然而該函式不連續,我們希望有一個單調可微的函式來供我們使用,於是便找到了來替代。
兩者的影象如下圖所示(圖片出自文獻2)
有了之後,由於其取值在,我們就可以將其視為類的後驗概率估計。說白了,就是如果有了一個測試點,那麼就可以用算出來的結果來當做該點屬於類別的概率大小。
於是,非常自然地,我們把計算得到的值大於等於的歸為類別,小於的歸為類別。
同時邏輯迴歸與自適應線性網路非常相似,兩者的區別在於邏輯迴歸的啟用函式是而自適應線性網路的啟用函式是,兩者的網路結構如下圖所示(圖片出自文獻1)。
邏輯迴歸的代價函式
好了,所要用的幾個函式我們都有了,接下來要做的就是根據給定的訓練集,把引數給求出來了。要找引數,首先就是得把代價函式(cost function)給定義出來,也就是目標函式。
我們第一個想到的自然是模仿線性迴歸的做法,利用誤差平方和來當代價函式。
其中,,表示第個樣本點,表示第