1. 程式人生 > >線性分類器:Fisher線性判別

線性分類器:Fisher線性判別

我們知道,基於樣本直接設計分類器需要三個基本要素:判別函式型別、分類器設計準則、尋優演算法。這裡我們討論的線性判別函式型別為:g(x)=wTx+w0。採用不同的準則和不同的尋優演算法就會得到不同的線性分類器。

一、線性判別函式
剛才我們說了,線性分類器的判別函式型是線性判別函式:

g(x)=wTx+w0
其中,w0是一個常數,xd維的特徵向量,w為權值向量,分別為:
x=x1x2xdw=w1w2wd
方程g(x)=0就是一個決策面,當g(x)是線性函式時,這個決策面就是一個超平面。
對於決策面上的任意兩點xi,xj都有:
wTx1+w0=wTx2
+w0wT(x1x2)=0

二、Fisher線性判別分析
兩類的線性判別問題可以看作是把所有樣本都投影到一個方向,然後再這個一維空間中確定一個分類的閾值,過這個閾值點且與投影方向垂直的超平面就是兩類的分類面。
這裡寫圖片描述
像上圖所示的兩種投影方案,左邊的投影方向可以將兩種樣本區分開來,而右邊的投影方向不能區分開來,所以左邊的投影方向更好。
Fisher線性判別的思想是:選擇投影方向,使得投影后兩類相隔儘可能遠,而同一類內的樣本儘可能聚集。

現在我們來定量的分析Fisher線性判別問題。為了簡單考慮,我們只討論二分類問題。
訓練樣本集是χ={x1,,xN},其中每個樣本xi是一個d維的向量,其中屬於w

1類的樣本是χ1={x11,,x1N1},屬於w2類的樣本是χ2={x21,,x2N2},我們的目的是尋找一個投影方向w(也是一個d維向量),投影后的樣本為yi=wtxi

定義:
原樣本空間中:
1)類均值向量為:

mi=1Nixjχixji=1,2
2)各類的類內離散度矩陣為:
Si=xjχi(xjmi)(xjmi)Ti=1,2
3)總類內離散度矩陣為:
SW=S1+S2
4)類間離散度矩陣為:
Sb=(m1m2)(m1m2)T
投影到一維空間後,
1)兩類的均值分別為:

相關推薦

線性分類Fisher線性判別

我們知道,基於樣本直接設計分類器需要三個基本要素:判別函式型別、分類器設計準則、尋優演算法。這裡我們討論的線性判別函式型別為:g(x)=wTx+w0。採用不同的準則和不同的尋優演算法就會得到不同的線性分類器。 一、線性判別函式 剛才我們說了,線性分類器的判別

線性分類Fisher線性判別

       在許多實際問題中,由於樣本特徵空間的類條件密度函式常常很難確定,利用Parzen窗等非引數方法估計分佈往往需要大量樣本,而且隨著特徵空間維數的增加所需樣本數急劇增加,因此在實際問題中,往往不去求類條件概率密度函式,而是利用樣本集直接設計分類器。具體說就是首先給定

模式識別 線性分類

一、實驗目的和要求 目的: 瞭解線性分類器,對分類器的引數做一定的瞭解,理解引數設定對演算法的影響。   要求: 1. 產生兩類樣本 2. 採用線性分類器生成出兩類樣本的分類面 3. 對比線性分類器的效能,對比引數設定的結果 二、實驗環境、

機器學習(一)快速入門線性分類

定義 假設特徵與分類結果存線上性關係的模型,這個模型通過累加計算每個維度的特徵與各自權重的乘積來幫助類別決策。 線性關係公式 :f(w,x,b)=w^tx+b x=(x1,x2,…xn) 代表n維特徵列向量,w=(w1,w2,…wn)代表對應的權

Fisher 線性分類(1)----Fisher準則函式

Fisher 線性分類器由R.A.Fisher在1936年提出,至今都有很大的研究意義,下面介紹Fisher分類器的Fisher準則函式 Fisher準則函式 在模式識別的分類演算法中,大概可以分為兩類,一種是基於貝葉斯理論的分類器,該型別分類器也稱為引數判別方法,根據是基

模式識別 學習筆記第四章 線性分類 (持續更新中。。。)

1 引言 基於樣本直接設計分類器需要三個基本要素: 1. 分類器即判別函式的型別,也就是從什麼樣的判別函式類中去求解; 2. 分類器設計的目標或準則,確定函式類中的某些待定引數; 3. 如何設計演算法利用樣本資料搜尋到最優的函式引數。 判別函式

Fisher線性分類和貝葉斯決策

Fisher的原理 其實就是將所有的樣本投影到一個一維的線性空間,然後做分類。 第一步是求解最優的投影方向。 這部分是主程式碼1 %函式作用:根據訓練樣本求出投影方向 %引數說明:w1是第一類的樣本自變數,w2是第二類的樣本自變數 functio

CS231n課程筆記3.1線性分類(SVM,softmax)的誤差函式、正則化

CS231n簡介 課程筆記 這篇是線性分類器的第二部分,回憶線性分類器的線性體現在score的獲得,即score = Wx+b,然後predict_label = argmax(score)。具體細節以及關於線性分類器的解釋請參考CS231n課程筆記

【轉】SVM入門(六)線性分類的求解——問題的轉化,直觀角度

content cli 樣本 image ges 五個 是你 角度 spa SVM入門(六)線性分類器的求解——問題的轉化,直觀角度 讓我再一次比較完整的重復一下我們要解決的問題:我們有屬於兩個類別的樣本點(並不限定這些點在二維空間中)若幹,如圖, 圓形的樣本點定為正樣

深度學習—線性分類理解

訓練集 所有 分享 距離 tro 更新 問題 最優化 線性分類 1、我們將要實現一種更強大的方法來解決圖像分類問題,該方法可以自然地延伸到神經網絡和卷積神經網絡上。這種方法主要有兩部分組成:一個是評分函數(score function),它是原始圖像數據到類別分值的映射。另

線性分類實現預測鳶尾花的種類(python)

rom dir Coding and func shape 交叉驗證 pri state 這是個人學習時跑的代碼,結果就不貼了,有需要的可以自己運行,僅供參考,有不知道的可以私下交流,有問題也可以聯系我。當然了我也只能提供一點建議,畢竟我也只是初學者 第一個頁面 # -*-

分類設計之線性分類線性SVM(含Matlab程式碼)

對於高維空間的兩類問題,最直接的方法是找到一個最佳的分類超平面,使得並且,對於所有的正負訓練樣本和. 因此,以上問題可以表達為: 問題P0可以轉化為 兩邊除以\epsilon,並且做變數替換,最終得到下面的線性規化(linear programming

【Mark Schmidt課件】機器學習與資料探勘——進一步討論線性分類

本課件主要內容包括: 上次課程回顧:基於迴歸的分類方法 Hinge損失 Logistic損失 Logistic迴歸與SVMs “黑盒”分類器比較 最大餘量分類器 支援向量機 魯棒性與凸近似 非凸0-

【Mark Schmidt課件】機器學習與資料探勘——線性分類

本課件主要內容包括: 上次課程回顧:L1正則化 組合特徵選擇 線性模型與最小二乘 梯度下降與誤差函式 正則化 辨識重要郵件 基於迴歸的二元分類? 一維判決邊界 二維判決邊界 感知器演算法

神經網路學習引入-線性分類 Linear Classification

線性分類器 評分函式(score function):計算原始資料到所屬分類的得分 損失函式(loss function):量化預測得分和實際情況之間的認可度 從影象到標籤得分的引數對映 定義評分函式

# cs231n (二)線性分類

cs231n (二)線性分類器 標籤(空格分隔): 神經網路 0.回顧 cs231n (一)影象分類識別講了KNN k-Nearest Neighbor分類器存在以下不足: 分類器必須記住所有訓練資料並將其儲存起來,以便於未來測試資料用於比較,儲存空

使用tensorflow 手動搭建線性分類 對良/惡性乳腺癌腫瘤進行分類

使用tensorflow  手動搭建線性分類器 對良/惡性乳腺癌腫瘤進行分類 # -*- coding:utf-8 -*- import tensorflow as tf import numpy as np import pandas as pd if __name__ == '_

斯坦福cs231n計算機視覺——線性分類(中 下),損失函式和最優化

week 2  10/15-10/21 損失函式和最優化:cs231n_2018_lecture03 觀看視訊 p7 和 p8,瞭解更多關於線性分類器,損失函式以及優化器的相關知識 損失函式 Loss function 我們將使用損失函式(Loss Funct

機器學習---線性分類三種最優準則

線性分類器三種最優準則: Fisher 準則 :根據兩類樣本一般類內密集,類間分離的特點,尋找線性分類器最佳的法線向量方向,使兩類樣本在該方向上的投影滿足類內儘可能密集,類間儘可能分開。這種度量通過類內

斯坦福CS231n 課程學習筆記--線性分類(Assignment1程式碼實現)

最近學習了斯坦福的CS231n(winter 2016)系列課程,收穫很大,作為深度學習以及卷積神經網路學習的入門很是完美。學習過程中,主要參考了知乎上幾位同學的課程翻譯,做得很好,在這裡也對他們表示感謝,跟課程相關的很多資源都可以在該專欄中找到。推薦大家把每個