《機器學習》對數機率迴歸——筆記
阿新 • • 發佈:2018-12-24
對數機率迴歸不是迴歸函式而是分類函式。
廣義線性模型
提出問題:需要找到一個單調可微函式將分類任務的真實標記y與線性迴歸模型的預測值聯絡起來
線性迴歸預測值,應用於分類問題一般選用“單位階躍函式”
但階躍函式不連續,而對數機率函式正好可以替代階躍函式,它單調可微,函式表示式為
把線性模型代入得到
(1)
根據對數形式進行更新變形為:
(2)
y視為樣本x為正例的可能性,1-y則放映了做為反例的可能性。
利用對數機率迴歸進行分類的優點:
1.無需視線假設資料分佈,避免了分佈不準確所帶來的問題;
2.不僅預測出類別,而且磕到近似概率預測;
3.任意階磕到的凸函式,比較好優化;
下面推到怎樣求模型中的w和b:
對於某一個分類任務,結果輸出(0,1)
根據式子(1)中的y視為類後驗概率估計
則式子(2)可以寫成:
與
組合解出:
可以通過最大似然估計來計算w和b,給定資料集,對率迴歸模型最大化“對數似然”:
為了方便令則可簡化為
再令
根據最大似然估計代入對數似然模型中得到
上式是關於的高階可導連續凸函式,根據凸優化理論,經典的數值優化演算法如梯度下降法、牛頓法等求得最優解
演算法思路: