1. 程式人生 > 程式設計 >Python實現線性判別分析(LDA)的MATLAB方式

Python實現線性判別分析(LDA)的MATLAB方式

線性判別分析(linear discriminant analysis),LDA。也稱為Fisher線性判別(FLD)是模式識別的經典演算法。

(1)中心思想:將高維的樣本投影到最佳鑑別向量空間,來達到抽取分類資訊和壓縮特種空間維數的效果,投影后保證樣本在新的子空間有最大的類間距離和最小的類內距離。也就是說在該空間中有最佳的可分離性。

(2)與PCA的不同點:PCA主要是從特徵的協方差出發,來找到比較好的投影方式,最後需要保留的特徵維數可以自己選擇。但是LDA更多的是考慮了類別資訊,即希望投影后不同類別之間資料點的距離更大,同一類別的資料點更緊湊。

從圖中也可以看出,LDA的投影后就已經將不同的類別分開了。

所以說,LDA是以分類為基準的,考慮的是如何選擇投影方向使得分類更好,是有監督的。但是PCA是一種無監督的降維方式,它只是單純的降維,只考慮如何選擇投影面才能使得降維以後的樣本資訊保留的最大。

(3)LDA的維度:LDA降維後是與類別個數直接相關的,而與資料本身的維度沒有關係。如果有C個類別,LDA降維後一般會選擇1-C-1維。對於很多二分類問題,LDA之後就剩下一維,然後再找到一個分類效果最好的閾值就可以進行分類了。

(4)投影的座標系是否正交:

PCA的投影座標系都是正交的,而LDA是根據類別的標註,主要關注的是分類能力,因此可以不去關注石否正交,而且一般都不正交。

(5)LDA步驟:

(a)計算各個類的樣本均值:

這個地方需要注意的是,分別求出每個類別樣本的Sbi或者Swi後,在計算總體的Sb和Sw時需要做加權平均,因為每個類別中的樣本數目可能是不一樣的。

(d)LDA作為一個分類的演算法,我們希望類內的聚合度高,即類內散度矩陣小,而類間散度矩陣大。這樣的分類效果才好。因此引入Fisher鑑別準則表示式:

(inv(Sw)Sb)的特徵向量。且最優投影軸的個數d<=C-1;

(e)所以,只要計算出矩陣inv(Sw)Sb的最大特徵值對應的特徵向量,該特徵向量就是投影方向W。

(6)計算各點在投影后的方向上的投影點:

MATLAB實現程式碼:

%這是訓練資料集

%2.9500 6.6300 0
%2.5300 7.7900 0
%3.5700 5.6500 0
%3.1600 5.4700 0
%2.5800 4.4600 1
%2.1600 6.2200 1

%3.2700 3.5200 1

X=load('22.txt');
pos0=find(X(:,3)==0);
pos1=find(X(:,3)==1);
X1=X(pos0,1:2);
X2=X(pos1,1:2);
hold on
plot(X1(:,1),X1(:,2),'r+','markerfacecolor',[ 1,0 ]);
plot(X2(:,X2(:,'b*',[ 0,1 ]);

grid on

%輸出樣本的二維分佈

M1 = mean(X1);
M2 = mean(X2);
M = mean([X1;X2]);
%第二步:求類內散度矩陣
p = size(X1,1);
q = size(X2,1);
a=repmat(M1,4,1);
S1=(X1-a)'*(X1-a);
b=repmat(M2,3,1);
S2=(X2-b)'*(X2-b);
Sw=(p*S1+q*S2)/(p+q);
%第三步:求類間散度矩陣
sb1=(M1-M)'*(M1-M);
sb2=(M2-M)'*(M2-M);
Sb=(p*sb1+q*sb2)/(p+q);
bb=det(Sw);
%第四步:求最大特徵值和特徵向量
[V,L]=eig(inv(Sw)*Sb);
[a,b]=max(max(L));

W = V(:,b);%最大特徵值所對應的特徵向量

%第五步:畫出投影線
k=W(2)/W(1);
b=0;
x=2:6;
yy=k*x+b;

plot(x,yy);%畫出投影線

%計算第一類樣本在直線上的投影點
xi=[];
for i=1:p
  y0=X1(i,2);
  x0=X1(i,1);
  x1=(k*(y0-b)+x0)/(k^2+1);
  xi=[xi;x1];
end
yi=k*xi+b;
XX1=[xi yi];
%計算第二類樣本在直線上的投影點
xj=[];
for i=1:q
  y0=X2(i,2);
  x0=X2(i,1);
  x1=(k*(y0-b)+x0)/(k^2+1);
  xj=[xj;x1];
end
yj=k*xj+b;
XX2=[xj yj];
% y=W'*[X1;X2]';
plot(XX1(:,XX1(:,0 ]);

plot(XX2(:,XX2(:,1 ]);

python 實現:

import numpy as np

import matplotlib.pyplot as plt

X=np.loadtxt("22.txt")

pos0=np.where(X[:,2]==0) 
print(pos0)
pos1=np.where(X[:,2]==1)

print(pos1)

X1=X[pos0,0:2]
X1=X1[0,:,:]
print(X1,X1.shape)
X2=X[pos1,0:2]
X2=X2[0,:]

print(X2,X2.shape)

#第一步,求各個類別的均值

M1=np.mean(X1,0)
M1=np.array([M1])
print(M1,M1.shape)
M2=np.mean(X2,0)
M2=np.array([M2])
print(M2)
M=np.mean(X[:,0:2],0)
M=np.array([M])
print(M)

p=np.size(X1,0)
print(p)
q=np.size(X2,0)

print(q)

#第二步,求類內散度矩陣
S1=np.dot((X1-M1).transpose(),(X1-M1))
print(S1)
S2=np.dot((X2-M2).transpose(),(X2-M2))
print(S2)
Sw=(p*S1+q*S2)/(p+q)

print(Sw)

#第三步,求類間散度矩陣
Sb1=np.dot((M1-M).transpose(),(M1-M))
print(Sb1)
Sb2=np.dot((M2-M).transpose(),(M2-M))
print(Sb2)
Sb=(p*Sb1+q*Sb2)/(p+q)

print(Sb)

#判斷Sw是否可逆

bb=np.linalg.det(Sw)

print(bb)

#第四步,求最大特徵值和特徵向量
[V,L]=np.linalg.eig(np.dot(np.linalg.inv(Sw),Sb))
print(V,L.shape)
list1=[]
a=V
list1.extend(a)
print(list1)
b=list1.index(max(list1))
print(a[b])
W=L[:,b]

print(W,W.shape)

#根據求得的投影向量W畫出投影線
k=W[1]/W[0]
b=0;
x=np.arange(2,10)
yy=k*x+b
plt.plot(x,yy)
plt.scatter(X1[:,0],X1[:,1],marker='+',color='r',s=20)
plt.scatter(X2[:,X2[:,marker='*',color='b',s=20)
plt.grid()

plt.show()

#計算第一類樣本在直線上的投影點
xi=[]
yi=[]
for i in range(0,p):
  y0=X1[i,1]
  x0=X1[i,0]
  x1=(k*(y0-b)+x0)/(k**2+1)
  y1=k*x1+b
  xi.append(x1)
  yi.append(y1)
print(xi)

print(yi)

#計算第二類樣本在直線上的投影點
xj=[]
yj=[]
for i in range(0,q):
  y0=X2[i,1]
  x0=X2[i,0]
  x1=(k*(y0-b)+x0)/(k**2+1)
  y1=k*x1+b
  xj.append(x1)
  yj.append(y1)
print(xj)

print(yj)

#畫出投影后的點
plt.plot(x,marker='>',s=20)
plt.grid()
plt.plot(xi,yi,'r+')
plt.plot(xj,yj,'b>')

plt.show()

以上這篇Python實現線性判別分析(LDA)的MATLAB方式就是小編分享給大家的全部內容了,希望能給大家一個參考,也希望大家多多支援我們。