PCA手寫版
阿新 • • 發佈:2021-12-19
計算過程參考:《機器學習——主成分分析(PCA)》
程式碼:
X = np.array([[-1, -2], [-1, 0], [0, 0], [2, 1], [0, 1]])
print(X)
def PCA(X,n):
#轉置
X = np.transpose(X)
#求特徵的均值
X_mean = np.mean(X,axis =1) # 計算每一行的均值
X = X - X_mean.reshape(-1,1)
#求協方差
cov_mat = 1.0/(X.shape[1])*np.dot(X,X.T)
# 將協方差進行特徵值分解 第一個返回值是特徵值矩陣,第二個返回值是特徵向量矩陣
values,vectors = np.linalg.eig(cov_mat)
print(values)
print(vectors)
# 按特徵值將特徵向量進行排序
# 拼接一個特徵值和特徵向量一起的矩陣
eig_mat = [(np.abs(values[i]),vectors[:,i]) for i in range(len(X))]
print(eig_mat)
# 排序
eig_mat.sort(reverse=True)
# 拼接WT矩陣 降維後的權重矩陣,只保留要保留的列
WT = np.array([_[1] for _ in eig_mat[:n]])
print(WT)
# 對X進行轉換,降維
return np.dot(WT,X)
n=1
PCA(X,n)
因上求緣,果上努力~~~~ 作者:每天卷學習,轉載請註明原文連結:https://www.cnblogs.com/BlairGrowing/p/15706251.html