K-means演算法的matlab程式 K-means演算法的matlab程式(初步)
阿新 • • 發佈:2018-11-09
K-means演算法的matlab程式
在“K-means演算法的matlab程式(初步)”這篇文章中已經用matlab程式對iris資料庫進行簡單的實現,下面的程式最終的目的是求準確度。
作者:凱魯嘎吉 - 部落格園 http://www.cnblogs.com/kailugaji/
1.採用iris資料庫
iris_data.txt
5.1 3.5 1.4 0.2 4.9 3 1.4 0.2 4.7 3.2 1.3 0.2 4.6 3.1 1.5 0.2 5 3.6 1.4 0.2View Code5.4 3.9 1.7 0.4 4.6 3.4 1.4 0.3 5 3.4 1.5 0.2 4.4 2.9 1.4 0.2 4.9 3.1 1.5 0.1 5.4 3.7 1.5 0.2 4.8 3.4 1.6 0.2 4.8 3 1.4 0.1 4.3 3 1.1 0.1 5.8 4 1.2 0.2 5.7 4.4 1.5 0.4 5.4 3.9 1.3 0.4 5.1 3.5 1.4 0.35.7 3.8 1.7 0.3 5.1 3.8 1.5 0.3 5.4 3.4 1.7 0.2 5.1 3.7 1.5 0.4 4.6 3.6 1 0.2 5.1 3.3 1.7 0.5 4.8 3.4 1.9 0.2 5 3 1.6 0.2 5 3.4 1.6 0.4 5.2 3.5 1.5 0.2 5.2 3.4 1.4 0.2 4.7 3.2 1.6 0.2 4.8 3.1 1.6 0.25.4 3.4 1.5 0.4 5.2 4.1 1.5 0.1 5.5 4.2 1.4 0.2 4.9 3.1 1.5 0.2 5 3.2 1.2 0.2 5.5 3.5 1.3 0.2 4.9 3.6 1.4 0.1 4.4 3 1.3 0.2 5.1 3.4 1.5 0.2 5 3.5 1.3 0.3 4.5 2.3 1.3 0.3 4.4 3.2 1.3 0.2 5 3.5 1.6 0.6 5.1 3.8 1.9 0.4 4.8 3 1.4 0.3 5.1 3.8 1.6 0.2 4.6 3.2 1.4 0.2 5.3 3.7 1.5 0.2 5 3.3 1.4 0.2 7 3.2 4.7 1.4 6.4 3.2 4.5 1.5 6.9 3.1 4.9 1.5 5.5 2.3 4 1.3 6.5 2.8 4.6 1.5 5.7 2.8 4.5 1.3 6.3 3.3 4.7 1.6 4.9 2.4 3.3 1 6.6 2.9 4.6 1.3 5.2 2.7 3.9 1.4 5 2 3.5 1 5.9 3 4.2 1.5 6 2.2 4 1 6.1 2.9 4.7 1.4 5.6 2.9 3.6 1.3 6.7 3.1 4.4 1.4 5.6 3 4.5 1.5 5.8 2.7 4.1 1 6.2 2.2 4.5 1.5 5.6 2.5 3.9 1.1 5.9 3.2 4.8 1.8 6.1 2.8 4 1.3 6.3 2.5 4.9 1.5 6.1 2.8 4.7 1.2 6.4 2.9 4.3 1.3 6.6 3 4.4 1.4 6.8 2.8 4.8 1.4 6.7 3 5 1.7 6 2.9 4.5 1.5 5.7 2.6 3.5 1 5.5 2.4 3.8 1.1 5.5 2.4 3.7 1 5.8 2.7 3.9 1.2 6 2.7 5.1 1.6 5.4 3 4.5 1.5 6 3.4 4.5 1.6 6.7 3.1 4.7 1.5 6.3 2.3 4.4 1.3 5.6 3 4.1 1.3 5.5 2.5 4 1.3 5.5 2.6 4.4 1.2 6.1 3 4.6 1.4 5.8 2.6 4 1.2 5 2.3 3.3 1 5.6 2.7 4.2 1.3 5.7 3 4.2 1.2 5.7 2.9 4.2 1.3 6.2 2.9 4.3 1.3 5.1 2.5 3 1.1 5.7 2.8 4.1 1.3 6.3 3.3 6 2.5 5.8 2.7 5.1 1.9 7.1 3 5.9 2.1 6.3 2.9 5.6 1.8 6.5 3 5.8 2.2 7.6 3 6.6 2.1 4.9 2.5 4.5 1.7 7.3 2.9 6.3 1.8 6.7 2.5 5.8 1.8 7.2 3.6 6.1 2.5 6.5 3.2 5.1 2 6.4 2.7 5.3 1.9 6.8 3 5.5 2.1 5.7 2.5 5 2 5.8 2.8 5.1 2.4 6.4 3.2 5.3 2.3 6.5 3 5.5 1.8 7.7 3.8 6.7 2.2 7.7 2.6 6.9 2.3 6 2.2 5 1.5 6.9 3.2 5.7 2.3 5.6 2.8 4.9 2 7.7 2.8 6.7 2 6.3 2.7 4.9 1.8 6.7 3.3 5.7 2.1 7.2 3.2 6 1.8 6.2 2.8 4.8 1.8 6.1 3 4.9 1.8 6.4 2.8 5.6 2.1 7.2 3 5.8 1.6 7.4 2.8 6.1 1.9 7.9 3.8 6.4 2 6.4 2.8 5.6 2.2 6.3 2.8 5.1 1.5 6.1 2.6 5.6 1.4 7.7 3 6.1 2.3 6.3 3.4 5.6 2.4 6.4 3.1 5.5 1.8 6 3 4.8 1.8 6.9 3.1 5.4 2.1 6.7 3.1 5.6 2.4 6.9 3.1 5.1 2.3 5.8 2.7 5.1 1.9 6.8 3.2 5.9 2.3 6.7 3.3 5.7 2.5 6.7 3 5.2 2.3 6.3 2.5 5 1.9 6.5 3 5.2 2 6.2 3.4 5.4 2.3 5.9 3 5.1 1.8
iris_id.txt
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2View Code
2.matlab源程式:
My_Kmeans.m
function label_1=My_Kmeans(K) %輸入K:聚類數 %輸出:label_1:聚的類, para_miu_new:聚類中心μ format long eps=1e-15; %定義迭代終止條件的eps data=dlmread('E:\www.cnblogs.comkailugaji\data\iris\iris_data.txt'); %---------------------------------------------------------------------------------------------------- %對data做最大-最小歸一化處理 [data_num,data_dim]=size(data); X=zeros(data_num,data_dim); data_min=min(min(data)); data_max=max(max(data)); for j=1:data_dim for i=1:data_num X(i,j)=(data(i,j)-data_min)/(data_max-data_min); end end [X_num,~]=size(X); %---------------------------------------------------------------------------------------------------- %隨機初始化K個聚類中心 rand_array=randperm(X_num); %產生1~X_num之間整數的隨機排列 para_miu_new=X(rand_array(1:K),:); %隨機排列取前K個數,在X矩陣中取這K行作為初始聚類中心 responsivity=zeros(X_num,K); %---------------------------------------------------------------------------------------------------- %K-means演算法 while true para_miu=para_miu_new; %上一步的聚類中心 %歐氏距離,計算(X-para_miu)^2=X^2+para_miu^2-2*X*para_miu',矩陣大小為X_num*K distant=repmat(sum(X.*X,2),1,K)+repmat(sum(para_miu.*para_miu,2)',X_num,1)-2*X*para_miu'; %返回distant每行最小值所在的下標 [~,label_1]=min(distant,[],2); %構建隸屬度矩陣X_num*K for i=1:X_num for j=1:K responsivity(i,j)=isequal(j,label_1(i)); end end R_k=sum(responsivity,1); %分母,第k類的個數,1*k的矩陣 para_miu_new=diag(1./R_k)*responsivity'*X; %更新引數miu(聚類中心) if norm(para_miu_new-para_miu)<=eps break; end end
succeed.m
function accuracy=succeed(K,id) %輸入K:聚的類,id:訓練後的聚類結果,N*1的矩陣 N=size(id,1); %樣本個數 p=perms(1:K); %全排列矩陣 p_col=size(p,1); %全排列的行數 new_label=zeros(N,p_col); %聚類結果的所有可能取值,N*p_col num=zeros(1,p_col); %與真實聚類結果一樣的個數 real_label=dlmread('E:\www.cnblogs.comkailugaji\data\iris\iris_id.txt'); %將訓練結果全排列為N*p_col的矩陣,每一列為一種可能性 for i=1:N for j=1:p_col for k=1:K if id(i)==k new_label(i,j)=p(j,k)-1; end end end end %與真實結果比對,計算精確度 for j=1:p_col for i=1:N if new_label(i,j)==real_label(i) num(j)=num(j)+1; end end end accuracy=max(num)/N;
Eg_Kmeans.m
function ave_acc_kmeans=Eg_Kmeans(K,max_iter) %輸入K:聚的類,max_iter是最大迭代次數 %輸出ave_acc_kmeans:迭代max_iter次之後的平均準確度 s=0; for i=1:max_iter label_1=My_Kmeans(K); accuracy=succeed(K,label_1); s=s+accuracy; end ave_acc_kmeans=s/max_iter;
3.結果
>> ave_acc_kmeans=Eg_Kmeans(3,50) ave_acc_kmeans = 0.826133333333333