1. 程式人生 > >SVM的分類超平面的數學推導

SVM的分類超平面的數學推導

給出數學推導,每個向量的意義不再贅述

轉換原問題

確定每個支援向量下的超平面:min y(w^T+b)/||w||
間隔最大的為所求最優的超平面 max min y(w^T+b)/||w|| ,
即求:
argmaxwT,b{minxyi×(wTxi+b)1w},yilabeli arg \space \underset{w^T,b} {max} \{ \underset{x}{min} \space y_i \times (w^T x_i+b) \frac{1}{||w||} \},y_i 即 label_i

},yilabeli
yiy_i=+1或-1,不影響結果。
為了便於計算,我們可以認為在支援向量上的這一部分為 1,支援向量上的點也為所有點裡的最近的點
yi×(wTxi+b) y_i \times (w^T x_i+b)
那麼其他點滿足不等式:
yi(wT+b)1 y_i(w^T+b) \geq 1
這個式子轉換為:
minxyi×(wTxi+b)1w=>1w \underset{x}{min} \space y_i \times (w^T x_i+b) \frac{1}{||w||} => \frac {1}{||w||} \\


{maxwT,x1ws.t.yi(wT+b)1 \begin{cases} \underset{w^T,x}{max} \frac {1}{||w||} \\ s.t. \space y_i(w^T+b) \geq 1 \end{cases}
對於max1wmax\frac {1}{||w||},它取得 max 和 12w2\frac 1 2 {||w||}^2 取得 min 的情形是一致的(1/2和平方便於後續計算)
問題轉換為
{
maxx12w2s.t.yi(wT+b)1 \begin{cases} \underset{x}{max} \space \frac 1 2{||w||}^2 \\ s.t. \space y_i(w^T+b) \geq 1 \end{cases}

拉格朗日乘子法

關於拉格朗日乘子法的原理和證明:
深入理解拉格朗日乘子法(Lagrange Multiplier) 和KKT條件
其中嚴謹的拉格朗日對偶的證明沒有明白,但是直觀上是能理解的。
強對偶和KKT條件也非常嚴格,這裡沒有寫出來。

有不等式約束的優化問題,可以寫為:
min f(x), 
	s.t. g_i(x) <= 0; i =1, ..., n
	h_j(x) = 0; j =1, ..., m

對於含有不等式約束的優化問題,如何求取最優值呢?常用的方法是KKT條件.
同樣地,把所有的不等式約束、等式約束和目標函式全部寫為一個式子L(a, b, x)= f(x) + a*g(x)+b*h(x),
KKT條件是說最優值必須滿足以下條件:

1. L(a, b, x)對x求導為零;
2. h(x) =0;
3. a*g(x) = 0;

求取這三個等式之後就能得到候選最優值。其中第三個式子非常有趣,因為g(x)<=0,
如果要滿足這個等式,必須a=0或者g(x)=0. 這是SVM的很多重要性質的來源,如支援向量的概念。

我們按照拉格朗日乘子法:
構造
L(wT,x,b)=12w2+imαi[1yi(wTxi+b)] L(w^T,x,b)=\frac 1 2{||w||}^2+\sum_i^{m}\alpha_i[1-y_i(w^Tx_i+b)]
令其對各分量求偏導等於0,即分別對 wTw^T,bb求導
w2wTw||w||^2即 w^T*w
可以得到
wTimαiyixi=0w^T -\sum_i^m\alpha_iy_ix_i=0
imαiyi=0\sum_i^m\alpha_iy_i=0

把上述結論代入 L,

L(ω,b,α)=12ω2+i=1mαi[1yi(ωTxi+b)]=12i=1mαiyixi2+i=1mαiωTi=1mαiyixi=12ωTi=1mαiyixi+i=1mαiωTi=1mαiyixi=i=1mαi12(i=1mαiyixiT)(i=1mαiyixi)=i=1mαi12i=1mj=1mαiαjyiyjxiTxj \begin{aligned} L(\omega,b,\alpha)&amp;=\frac{1}{2}\|\omega\|^2 + \sum_{i=1}^m\alpha_i\Big[1-y_i(\omega^Tx_i+b)\Big] \\ &amp;= \frac{1}{2}\left\| \sum_{i=1}^{m}\alpha_iy_ix_i \right\|^2 + \sum_{i=1}^{m}\alpha_i - \omega^T\sum_{i=1}^{m}\alpha_iy_ix_i \\ &amp;=\frac{1}{2}\omega^T\sum_{i=1}^{m}\alpha_iy_ix_i+\sum_{i=1}^{m}\alpha_i - \omega^T\sum_{i=1}^{m}\alpha_iy_ix_i \\ &amp;=\sum_{i=1}^{m}\alpha_i - \frac 1 2 \left(\sum_{i=1}^{m}\alpha_iy_ix_i^T\right)\left(\sum_{i=1}^{m}\alpha_iy_ix_i\right) \\ &amp;=\sum_{i=1}^{m}\alpha_i - \frac 12\sum_{i=1}^{m}\sum_{j=1}^{m}\alpha_i\alpha_jy_iy_jx_i^Tx_j \end{aligned}

相關推薦

SVM分類平面數學推導

給出數學推導,每個向量的意義不再贅述 轉換原問題 確定每個支援向量下的超平面:min y(w^T+b)/||w|| 間隔最大的為所求最優的超平面 max min y(w^T+b)/||w|| , 即求:

手推SVM(一)-數學推導

SVM的想法 SVM中在數學上目標 2.1 判定條件 2.2 最大間隔假設 SVM的推導 3.1 第一種境界 3.2 第二種境界 3.3 第三種境界-kkt條件 SVM的推導過程和他的地位一樣重要,雖然很久以前就已經接觸過SVM了,但總感覺理解不

點到平面距離公式 推導

idt ima .net || mage sub detail eight 技術 公式: d = |wx0 + b|/||w||2 推導: 參考文獻: https://blog.csdn.net/yutao03081/article/details/7

平面是什麼?——理解平面SVM開篇之平面詳解)

        研究了半天,終於對“超平面”有了個初步瞭解。          n 維空間中的超平面由下面的方程確定:           &n

機器學習中的平面理解(SVM開篇之平面詳解)

目錄 一、什麼是超平面 二、點到超平面的距離  三、 判斷超平面的正反 一、什麼是超平面 以上是三維為例子。  通過查閱資料對超平面有了一定的認識, n 維空間中的超平面由下面的方程確定:  其中,w&nb

邏輯斯蒂迴歸能否解決非線性分類問題? 邏輯斯蒂迴歸提出時用來解決線型分類問題,其分離面是一個線型超平面wx+b,如果將這個超平面改成非線性的,如x1^2+x2=0之類的非線性超平面來進行分類,是否也可

邏輯迴歸的模型引入了sigmoid函式對映,是非線性模型,但本質上又是一個線性迴歸模型,因為除去sigmoid對映函式關係,其他的步驟,演算法都是線性迴歸的。可以說,邏輯迴歸,都是以線性迴歸為理論支援的。 這裡講到的線性,是說模型關於係數一定是線性形式的 加入sigmoid對

SVM開篇提到的平面概念如何理解?

什麼是超平面 我們最常見的平面概念是在三維空間中定義的: Ax+By+Cz+D=0 它由兩個性質定義: 方程是線性的: 是空間點的各分量的線性組合方程數量為1 若拋卻維度等於3的限制, 就得到了超平面的定義. 方程數量為1, 它的本質其實是自由度比空間維度d小一.自

svm系列之最大分隔平面

對於對上面4點的分隔,如果是用線性迴歸的話,三個圖形都可能發生。因為PLA是遇到一個輸入值,才進行調整,即如果用PLA模型的話,最終的模型與初始狀態和輸入點的順序有關。都是我們從直覺上來看,不難發現,其實最右邊的分割線由於另外兩個分割線的。 那為什麼

(基礎)支援向量機SVM——平面

若拋卻維度等於3的限制,就得到了超平面的定義。 其中方程數量為1,它的本質其實是自由度比空間維度D小1。自由度的概念可以簡單的理解為至少要給定多少個分量的值才能確定一個點。 例如, 三維空間裡的(超)平面只要給定了(x,y,z) 中任意兩個分量, 剩下的一個的值就確定了。 先確定值的兩個分量是自由的, 因

【ML學習筆記】5:機器學習中的數學基礎5(張量,哈達瑪積,生成子空間,平面,範數)

向量/矩陣/張量 向量 向量可以表示成一維陣列,每個分量可以理解為向量所表示的點在空間中座標的分量。 矩陣 矩陣可以表示成二維陣列,上節理解了矩陣可以理解為線性對映在特定基下的一種定量描述。 張量 張量可以表示成任意維的陣列,張量是向量概

分類演算法----線性可分支援向量機(SVM)演算法的原理推導

支援向量機(support vector machines, SVM)是一種二分類模型,它的基本模型是定義在特徵空間上的間隔最大的線性分類器, 其目標是在特徵空間中找到一個分離超平面,能將例項分到不同的類,分離超平面將特徵空間劃分為兩部分,正類和負類,法向量 指向的為正類,

平面詳解-SVM支援向量機

 研究了半天,終於對“超平面”有了個初步瞭解。          n 維空間中的超平面由下面的方程確定:                                                   其中,w 和 x 都是 n 維列向量,x 為平面上的點,w 為平

機器學習之梯度下降法數學推導--分類

PS:本文中的log等同於我們國內的ln sigmoid函式     之前那一文中提到了一般的梯度上升的公式推導,但是在《機器學習實戰》一書中,實現的是分類方法,因此,雖然最終的結果相似,但是其實本質有很大的不同。     一般來講我們把實物分

平面

log 什麽 現在 str pan 廣泛 所在 簡單的 數量 ||x|| 是什麽意思? 表示範數,這是空間的一個性質,大體至關於一般意義上到原點距離的意思,但有更為廣泛普遍的界說:假設V是域F上的向量空間;V的範數是一個函數p:V→R;x→p(x),滿足:?a∈F,?u,v

HDU5734 Acperience(數學推導

pac together vector oge n-2 sub script cpe stream Problem Description Deep neural networks (DNN) have shown significant improvements in s

LSTM簡介以及數學推導(FULL BPTT)

了解 組織 線表 含義 計算公式 增加 以及 限制 意思 http://blog.csdn.net/a635661820/article/details/45390671 前段時間看了一些關於LSTM方面的論文,一直準備記錄一下學習過程的,因為其他事兒,一直拖到了現在,記憶

『科學計算』從Logistic回歸到SVM分類

zoom ram edi 情況下 投影 導出 bmp 幾何 sig 轉自:http://blog.csdn.net/v_july_v/article/details/7624837 前言 動筆寫這個支持向量機(support vector machine)是費了不少

翻拍特征提取及SVM分類

沒有 灰度化 ec2 方法 拍照 相減 重新 識別 bsp 如下介紹DCT、灰度圖及DWT分別對正常及翻拍的特征提取,並將其用於SVM訓練模型及對新數據的預測。根據不同方式數據的翻拍檢測實驗結果可得出魯棒性DWT>DCT>灰度圖。 一、DCT特征: 1、 從DC

Acperience (英語閱讀 + 數學推導)

name 技術 lld clas color enc sca () info #include<bits/stdc++.h> using namespace std; int main(){ int T,n,m;scanf("%d",&T)

【洛谷P1962 斐波那契數列】矩陣快速冪+數學推導

公式 lin esp inline i++ out cin def res 來提供兩個正確的做法: 斐波那契數列雙倍項的做法(附加證明) 矩陣快速冪 一、雙倍項做法 在偶然之中,在百度中翻到了有關於斐波那契數列的詞條(傳送門),那麽我們可以發現一個這個規律$ \fra