1. 程式人生 > 實用技巧 >機器學習-cs229-邏輯迴歸

機器學習-cs229-邏輯迴歸

文章目錄


**注:本篇文章參考了許多博文,因為機器學習尤其是CS229系列的課程和博文詳細的好的非常多,本片由很多參考。


邏輯迴歸

公式:
在這裡插入圖片描述

用g(x)表示z
在這裡插入圖片描述

物理意義:對於輸入x,輸出為y=1的可能性

在這裡插入圖片描述

從函式的值的角度:
在這裡插入圖片描述

注:這裡閾值可以調

邏輯迴歸重新定義代價函式

線性迴歸的代價函式為 :

img

代入到平方代價函式的時候 ,我們得到的代價函式將是一個非凸函式 (non-convexfunction) :
img

這將嚴重影響梯度下降演算法尋找全域性最小值

所以考慮到 Sigmoid 函式的形式 , 我們放棄使用平方代價函式 , 使用這種代價函式 :

img


為什麼不用平方損失函式?

也可以用平方損失,但是會在h(wx)接近0和1的地方梯度很小,不容易學習,你可以試著用平方損失進行梯度下降,就會發現了,tips:會用到dh/dw=h*(1-h)。



用極大似然估計的方法

img

原因:極大似然估計在原有的概率函式上以log為底,1.不改變概率函式的分佈 2.增函式,求到之後取y=0的x值,得到最大值



img

對於y=1時,即cost=-log(hx), 若hx也=1,則代價函式=0;反之無窮大

img

對於 -log(1= h(x)) 也是同理 :

img




總結一下

損失函式:

這裡說一下,函式的形態仍為凹函式

img

求當代價函式最小時的θ

img


演算法:對Jθ求導,

在這裡插入圖片描述

與線性迴歸的式子作比較:
在这里插å¥å›¾ç‰‡æè¿°

好像長一樣耶

但是這裡的 : 與線性迴歸中不同,所以實際上是不一樣的 .

邏輯迴歸中:
在這裡插入圖片描述

線性迴歸中:

在这里插å¥å›¾ç‰‡æè¿°



推薦博文

知乎專欄:邏輯迴歸