FPGA機器學習之stanford機器學習第三堂2
我已經寫過一遍了,為了我的分享事業,我在寫一次吧。
上一次我寫到了,這裡加號後面的那個就是錯誤率。為什麼會引入這個,上一篇,我有寫清楚。
這裡,我們假定它符合高斯分佈。為什麼是高斯分佈,上一篇也寫了。
這裡引入似然率的概念L(thera)。
進一步往下寫。最後代入。
我們要選擇最大似然率嘛。最大似然就是說,我們要計算出的數,最大程度的出現。
為了方便引入一個新的概念。小L,就是log似然率。一步一步向下計算。這個式子,可以算出來,不過好像有點複雜是吧。我沒算,預設正確吧。
這一小塊單獨拿出來。因為它就是J(thera)。要讓L(thera)最大,就要它最小。
最後你會發現式子裡面沒有σ2,所以和它無關。
Classification and logistic regression
這裡是邏輯迴歸。其實就是針對只有0,1 兩種情況輸出的情況。
其實這種情況很多,比如說,判斷男的還是女的,就兩種情況。比如真的,假的。兩種情況。
這裡引入一個新的函式。函式的二維圖形表示。這個函式在我前面寫的神經網路裡面也設計到了。
我們現在來假設兩個概率函式。這裡比較好理解了。y只有2個取值。0和1.所以只有2個概率值。所以下一個就是1-h(x)。
講兩個概率函式寫在一起方便下面計算
m個樣本進行訓練 這個代入後的結果。
還是求一個log似然率。
這個還有印象,梯度下降法。這個過程我大概看了一下,還是可以理解的。具體的我沒自己看,預設求出結果正確就好了。
最後求得這個式子。這個式子和之前的式子是一樣的。但是這裡的h(x)是不一樣的。
可是這裡用的是加號,所以應該叫梯度上升演算法吧。
perceptron learning algorithm
叫感知器學習演算法。其實情況大同小異了。
還是一個h(x)函式定義不同。
最後求的結果還是一樣的。
梯度下降法逼近。
我能力有限,但是我努力分享我的技術,一起學習,一起進步,剛接觸,有錯誤望各位指點。