FPGA機器學習之stanford機器學習第九堂
阿新 • • 發佈:2019-02-05
接下來他要講的內容是,如何使用好這些工具。
開始的時候說了一些過擬合,欠擬合線性。
為了方便理解,來一個簡化版機器學習模型。
被假設錯誤分類的訓練樣本數的和。 叫ERM
最小化。這個是最基本的學習演算法。訓練誤差最小化。
假設類H(集合),線性分類器。 x輸入只能是0和1.訓練誤差最小。
下面描述的是,分辨準確率。
這個被叫做聯合界
Hoeffding inequality hoeffding不等式。
z隨機變數。 屬於Bernoulli distribution。然後就會有這個式子。
根據hoeffding 不等式得到的。
假設k個假設類。 目前只考慮有限假設類。
下面要說明圈1和圈2,兩個定理。
1,一般誤差很好的近似。2,ERM輸出的假設的一般誤差存在上界。
。下面有用到
兩邊1減去一下得到。
得到的結論是:在不小於某個概率的情況下,
我很懶,我就不翻譯成中文了。
r和m都是給定的。
誤差邊界。給定m和k求r
就算是非線性可分,它的效果也是最好的。
三個結論。
這裡要求m
需要了解這個結論與以前邏輯的關聯。這個對後面無限假設類很有用。
本人能力有限。但是我努力把我的認知分享。到現在我已經很多都無法理解了。只能為自己留一個概念,為後面學習來些基礎。