1. 程式人生 > >SVM和logistic regression的一些對比

SVM和logistic regression的一些對比

一、SVM的常用目標函式形式

soft margin svm可表示為:

其中,C表示懲罰係數;C越大,表示對margin越嚴格,即對不滿足約束的樣本數要更少;

反之,C越小,表示對margin越寬鬆,即可接受不滿足約束的樣本數越多。

例如下圖所示:

 

二、SVM和logistic regression的對比

1、對於SVM目標函式的解讀

SVM的目標函式與帶了L2正則的Model的目標函式很相似,並且具有相同的一些性質。

  

 

2、三種常用替代損失函式對比

因此,SVM目標函式中的max(1-ys,0)函式與Logistic regression的目標函式很像;如果給LR加入L2正則化,那麼有:

 

三、Probabilistic SVM的實現思路

1、鑑於SVM和加L2正則的LR model很相似出發:

(1)idea1

將soft margin的SVM進行求解,將得到的w,b引數當作LR model的w',b'的近似解,然後使用sigmoid函式進行概率求解。

優點:直接使用了svm和LR的相似性,實際使用上,較為簡單,通常表現還不錯。

缺點:實際上幾乎喪失了LR model推導中的maximum likelyhood等性質。

 

 

 

 

 

 

 

 

 

 

(2)idea2

 將soft margin的SVM進行求解,將得到的w,b引數當作LR model解的起始點,再進行LR模型的求解。

缺點:效果和單獨使用LR model求解差不多,並且對於kernel svm,則無法使用LR model進行近似。

 

 

2、採用融合SVM和LR各自優勢的思路

(1) 做法

      將SVM求解出來的結果(即求解出w和b)後計算(wx+b)的值value,然後在value上加上兩個自由度的操作,即放縮操作A,平移操作B;在A和B兩個引數上使用logistic regression進行訓練(實際上是把A和B分別當作LR model裡的w和b引數來求解),這樣可以比較吻合在logistic regression中的maximum likelyhood的需求。

優點:保留了svm原有的性質,包括kernel svm的性質;可以使用LR model獲得概率值表示。

幾何解釋:用SVM 找出分類超平面的法向量,然後不改變法向量,但是在法向量之上再加上一些放縮和平移操作,使其更吻合在logistic regression中的maximum likelyhood的需求。

 

(2) Probabilistic SVM的目標函式:

 

 

(3)Probabilistic SVM一般化的求解步驟