機器學習----支援向量機(軟間隔與正則化)
阿新 • • 發佈:2019-01-03
Soft Margin
前面的假設一直都是線性可分,可是如果對所有樣本不能線性可分(比如有noisy)怎麼辦?或者過擬合怎麼辦?
緩解該問題的一個方法就是允許支援向量機在一些樣本上出錯,為此引入軟間隔(soft margin)這個概念。即允許在一些樣本上出錯,可以有些樣本不滿足:
所以優化目標寫成:
其中C>0是個常數,
然而
- hinge損失:
ℓhinge - 指數損失(exponential loss):
ℓexp(z)=exp(−z) - 對率損失(logistic loss):
ℓlog(1+exp−z)
若採用hinge loss,則✿變成:
引入“鬆弛變數”
這就是常用的“軟間隔支援向量機”。求解過程略。
Regularization
我們把✿寫成一般的形式:
其實這是機器學習的一個通式,整個統計機器學習都是在玩這個。