[NOI2002]銀河英雄傳說
阿新 • • 發佈:2020-11-25
簡介
這裡通過python的繪圖工具Matplotlib包視覺化實現機器學習中的KNN演算法。
需要提前安裝python的Numpy和Matplotlib包。
KNN?最近鄰分類演算法,演算法邏輯比較簡單,思路如下:
1.設一待分類資料iData,先計算其到已標記資料集中每個資料的距離,例如尤拉距離sqrt((x1-x2)^2+(y1-y2)^2);
2.然後根據離iData最近的k個數據的分類,出現次數最多的類別定為iData的分類。
KNN——最近鄰演算法python程式碼
程式碼實現:
import numpy as np import matplotlib as mpl import matplotlib.pyplot as plt def KNNClassify(labelData,predData,k): #資料集包含分類屬性 #labelData 是已經標記分類的資料集 #predData 未分類的待預測資料集 labShape = labelData.shape for i in range(predData.shape[0]): #以predData的每行資料進行遍歷 iData = predData[i] iDset = np.tile(iData,(labShape[0],1)) #將iData重複,擴充套件成與labelData同形的矩陣 #這裡用尤拉距離sqrt((x1-x2)^2+(y1-y2)^2) diff = iDset[...,:-1] - labelData[...,:-1] diff = diff**2 distance = np.sum(diff,axis=1) distance = distance ** 0.5 #開根號 sortedIND = np.argsort(distance) #排序,以序號返回。 classCount = { } for j in range(k): #計算距離最近的前k個標記資料的類別 voteLabel = labelData[sortedIND[j],-1] classCount[voteLabel] = classCount.get(voteLabel,0)+1 maxcls = max(classCount,key=classCount.get) #類別最多的,返回鍵名(類別名) predData[i][...,-1] = maxcls return predData
為了測試這個演算法,需要現成的已分類資料集,由於手動輸入很有限,資料量少,耗時。作為學習我們這裡用程式碼模擬生成資料來進行測試。下面是生成已分類資料集的程式碼:
生成模擬資料的函式
import numpy as np import matplotlib as mpl import matplotlib.pyplot as plt #模擬生成分類資料 #目標是產生二維座標中的幾堆資料集,每堆為一個類 #函式邏輯: #將x軸分段,每個段設一箇中心的,所有的中心點用cores儲存。 #設定每個資料中心點core的類別,由中心點在一定範圍內隨機產生資料,並將這些資料設為和core一樣的類別 #所以每類的資料會簡單的被X軸的每段大致分開 def makeKNNData(colnum,clsnum,nums,cores = []): #colnum單個數據擁有特徵數量(包括資料的分類); # clsnum表示共有多少種分類; # nums是一個元組,表示每個類別希望產生多少資料樣本,如colnum為5,nums為[56, 69, 60, 92, 95]; #cores非必要引數,手動給出只是用於測試,cores提供每類的中心點,以中心點為依據產生該類資料。 dataSet = np.zeros((sum(nums),colnum)) #初始化資料集,用於存放隨後生成的所有資料 n=0 #記錄生成資料的下標 step = 20/clsnum #假定X座標軸只顯示0~20的範圍,step為X軸分段後的段長 for j in range(clsnum): #迴圈生成各個類資料 try: core = cores[j] #如果cores沒有給出則,則出錯,跳至except執行 except IndexError : core = np.random.rand(1,3) #中心點為array([[x1,x2,c]]),c用於表示類別,這裡產生的是1*3的二維陣列 core[0][0] =j*step + core[0][0]*step #將x1限制在各段中 core[0][1] *=15 #將x2即y軸限制在0~15範圍內 core[0][2] = j #設定類別 cores.append(core) for i in range(nums[j]): #按nums中指定了每類資料的數量,用迴圈生成。 point= core[0][:2] + np.random.rand(1,2)*step -step/2 #產生點point(x,y),x以中心點在(core_x - step/2, core_x + step/2)範圍隨機波動,y同理。 row = np.column_stack((point,core[0][2])) #加上類別成為一個數據 dataSet[n] = row n +=1 i +=1 j +=1 #print("print cores:",cores) return dataSet
有了資料集之後,我們可以用Matplotlib將資料視覺化,以直觀顯示出來
資料視覺化函式
import numpy as np import matplotlib as mpl import matplotlib.pyplot as plt #繪圖展示資料,每類資料點以不同的顏色顯示 def showFigure(dataSet,clsnum): fig = plt.figure() ax = fig.add_subplot(1,1,1) #介面只需顯示一個檢視 ax.set_title('KNN separable data set') #檢視名稱,這裡簡單統一定這個名稱吧 plt.xlabel('X') #座標軸名稱 plt.ylabel('Y') colors = ['r','g','b','y','k'] #定義顯示的顏色b為blue,k為black for i in range(clsnum): idx = np.where(dataSet[:,2] == i) #查詢每類的索引號 ax.scatter(dataSet[idx,0], dataSet[idx,1], marker='o', color=colors[i%5], label=1, s=10) #在檢視中的顯示方式 plt.legend(loc = 'upper right') #圖例顯示位置 plt.show() #測試一下 #需要結合模擬生成資料的函式 classnum = 5 nums = np.random.randint(50,100,classnum) #示例 array([56, 69, 60, 92, 95]),每個數字在50~100範圍內 dataSet = makeKNNData(3,classnum,nums) showFigure(dataSet,classnum)
生成的模擬資料展示結果如下:
完整程式碼
import numpy as np import matplotlib as mpl import matplotlib.pyplot as plt #模擬生成分類資料 #目標是產生二維座標中的幾堆資料集,每堆為一個類 #函式邏輯: #將x軸分段,每個段設一箇中心的,所有的中心點用cores儲存。 #設定每個資料中心點core的類別,由中心點在一定範圍內隨機產生資料,並將這些資料設為和core一樣的類別 #所以每類的資料會簡單的被X軸的每段大致分開 def makeKNNData(colnum,clsnum,nums,cores = []): #colnum單個數據擁有特徵數量(包括資料的分類); # clsnum表示共有多少種分類; # nums是一個元組,表示每個類別希望產生多少資料樣本; #cores非必要引數,手動給出只是用於測試,cores提供每類的中心點,以中心點為依據產生該類資料。 dataSet = np.zeros((sum(nums),colnum)) #初始化資料集,用於存放隨後生成的所有資料 n=0 #記錄生成資料的下標 step = 20/clsnum #假定X座標軸只顯示0~20的範圍,step為X軸分段後的段長 for j in range(clsnum): #迴圈生成各個類資料 try: core = cores[j] #如果cores沒有給出則,則出錯,跳至except執行 except IndexError : core = np.random.rand(1,3) #中心點為array([[x1,x2,c]]),c用於表示類別,這裡產生的是1*3的二維陣列 core[0][0] =j*step + core[0][0]*step #將x1限制在各段中 core[0][1] *=15 #將x2即y軸限制在0~15範圍內 core[0][2] = j #設定類別 cores.append(core) for i in range(nums[j]): #按nums中指定了每類資料的數量,用迴圈生成。 point= core[0][:2] + np.random.rand(1,2)*step -step/2 #產生點point(x,y),x以中心點在(core_x - step/2, core_x + step/2)範圍隨機波動,y同理。 row = np.column_stack((point,core[0][2])) #加上類別成為一個數據 dataSet[n] = row n +=1 i +=1 j +=1 #print("print cores:",cores) return dataSet #繪圖展示資料,每類資料點以不同的顏色顯示 def showFigure(dataSet,clsnum): fig = plt.figure() ax = fig.add_subplot(1,1,1) #介面只需顯示一個檢視 ax.set_title('KNN separable data set') #檢視名稱,這裡簡單統一定這個名稱吧 plt.xlabel('X') #座標軸名稱 plt.ylabel('Y') colors = ['r','g','b','y','k'] #定義顯示的顏色b為blue,k為black for i in range(clsnum): idx = np.where(dataSet[:,2] == i) #查詢每類的索引號 ax.scatter(dataSet[idx,0], dataSet[idx,1], marker='o', color=colors[i%5], label=1, s=10) #在檢視中的顯示方式 plt.legend(loc = 'upper right') #圖例顯示位置 plt.show() #分類演算法: #待分類資料iData,先計算其到已標記資料集中每個資料的距離 #然後根據離iData最近的k個數據的分類,出現次數最多的類別定為iData的分類。 def KNNClassify(labelData,predData,k): #資料集包含分類屬性 #labelData 是已經標記分類的資料集 #predData 待預測資料集 labShape = labelData.shape for i in range(predData.shape[0]): #以predData的每行資料進行遍歷 iData = predData[i] iDset = np.tile(iData,(labShape[0],1)) #將iData重複,擴充套件成與labelData同形的矩陣 #這裡用尤拉距離sqrt((x1-x2)^2+(y1-y2)^2) diff = iDset[...,:-1] - labelData[...,:-1] diff = diff**2 distance = np.sum(diff,axis=1) distance = distance ** 0.5 #開根號 sortedIND = np.argsort(distance) #排序,以序號返回。 classCount = { } for j in range(k): #計算距離最近的前k個標記資料的類別 voteLabel = labelData[sortedIND[j],-1] classCount[voteLabel] = classCount.get(voteLabel,0)+1 maxcls = max(classCount,key=classCount.get) #類別最多的,返回鍵名(類別名) predData[i][...,-1] = maxcls return predData #測試 labNums = np.random.randint(50,200,classnum) predNums = np.random.randint(10,80,classnum) #cores = [np.array([[ 0.08321641, 12.22596938, 0. ]]), np.array([[9.99891798, 4.24009775, 1. ]]), np.array([[14.98097374, 9.80120399, 2. ]])] labelData = makeKNNData(3,classnum,labNums) showFigure(labelData,classnum) predData = makeKNNData(3,classnum,predNums) #這裡為了方便,不在寫產生待分類資料的程式碼,只需用之前的函式並忽略其類別就好。 predData[...,-1]=0 showFigure(predData,classnum) k = 10 KNNData = KNNClassify(labelData,predData,k) showFigure(KNNData,classnum)
執行程式,結果如下:
1.labelData的資料(已知分類的資料)
2.predData的資料(未標記的資料)
3KNNData的資料(用KNN演算法進行分類後的資料)
以上就是本文的全部內容,希望對大家的學習有所幫助,也希望大家多多支援碼農教程。