1. 程式人生 > >機器學習中Logistic Regression的個人理解

機器學習中Logistic Regression的個人理解

這段時間一直在看Andrew Ng的機器學習的公開課,感覺真的是很棒,極力推薦大家去看,這是對應的網易公開課的連結:

在看Logistic Regression的過程中,Ng首先介紹了伯努利分佈{0,1},而後引入sigmoid函式,之後就說我們假設(Let us assume that)

P(y=1|x;θ)=hθ(x),P(y=0|x;θ)=1hθ(x)

不知道為什麼假設成這個樣子,自己思考了半天,下面是我自己的理解。

在學習機器學習的時候我總是犯一個毛病就是到最後都不知道訓練的是什麼,當進行到測試的時候想得到的結果是什麼。

對於這個問題來說訓練的就是θ,之後測試的時候輸入一個x

,輸出的結果就是多大的概率為1, 多大的概率為0,這就是我們的目標。

根據這個目標,我們構造了一個hθ(x)=11+eθTx 來代表輸出為1的概率(P(y=1|x;θ)=hθ(x)), 下圖就是這個函式的影象(https://en.wikipedia.org/wiki/Sigmoid_function),這個函式的取值範圍為(0,1)。
**sigmoid function** or **logistic function**

其實hθ(x) 取什麼樣函式都可以,只要是符合要求就行,而如果取上述曲線(Logistic Function)比較符合自然規律或者其他一些我不能夠理解的理由。。。。

才疏學淺,只能理解到這了,不知道理解的深刻不深刻,請大家多來吐槽。