機器學習實戰(一)k-近鄰kNN(k-Nearest Neighbor)
阿新 • • 發佈:2018-11-02
目錄
1. k-近鄰演算法kNN(k-Nearest Neighbor)
學習完機器學習實戰的k-近鄰演算法,簡單的做個筆記。文中部分描述屬於個人消化後的理解,僅供參考。
所有程式碼和資料可以訪問 我的 github
如果這篇文章對你有一點小小的幫助,請給個關注喔~我會非常開心的~
0. 前言
k-近鄰演算法kNN(k-Nearest Neighbor)是一種監督學習的分類演算法,演算法思想是通過判斷向量之間的距離,決定所屬的類別。
- 優點:精度高、對異常值不敏感
- 缺點:計算複雜度高、空間複雜度高
- 適用資料型別:數值型和標稱型
1. k-近鄰演算法kNN(k-Nearest Neighbor)
演算法流程可描述如下:
- 已知待測試樣本 ,訓練集合
- 計算待測試樣本與訓練集合中每一個樣本的歐式距離
- 對 從小到大排序
- 選擇前 個距離最短的樣本,其中出現次數最多的類別,就是待測試樣本的分類結果
其中, 與 的歐式距離表示為:
注:kNN演算法必須儲存所有的樣本資料集,並且每一個測試樣本,都要計算其與所有樣本資料的距離,所以時間複雜度和空間複雜度都很高。
2. 實戰案例
以下將展示書中的三個案例的程式碼段,所有程式碼和資料可以在github中下載:
2.1. 簡單案例
# coding:utf-8 from numpy import * import operator """ 簡單案例 """ # 建立資料集和標籤 def createDataSet(): group = array([[1.0, 1.1], [1.0, 1.0], [0, 0], [0, 0.1]]) labels = ['A', 'A', 'B', 'B'] return group, labels # 分類演算法 def classify0(intX, dataSet, labels, k): dataSetSize = dataSet.shape[0] # tile(): # 在行方向上重複 intX,dataSetSize 次 # 在列方向上重複 intX,1 次 diffMat = tile(intX, (dataSetSize, 1)) - dataSet # ** 表示平方 sqDiffMat = diffMat ** 2 # sum(axis=0) 表示每一列相加 # sum(axis=1) 表示每一行相加 sqDistances = sqDiffMat.sum(axis=1) distances = sqDistances ** 0.5 # argsort(): # 按照數值從小到大,對數字的索引進行排序 sortedDistIndicies = distances.argsort() classCount = {} for i in range(k): voteIlabel = labels[sortedDistIndicies[i]] # {}.get(voteIlabel, 0): # 查詢鍵值 voteIlabel,如果鍵值不存在則返回 0 classCount[voteIlabel] = classCount.get(voteIlabel, 0) + 1 # key=operator.itemgetter(1) # 獲取物件第 1 個域的值 sortedClassCount = sorted(classCount.items(), key=operator.itemgetter(1), reverse=True) return sortedClassCount[0][0] if __name__ == '__main__': group, labels = createDataSet() intX = [0, 0] k = 3 clasifierResult = classify0(intX, group, labels, k) print(clasifierResult)
2.2. 約會網站案例
# coding:utf-8
from numpy import *
import matplotlib.pyplot as plt
import operator
"""
約會網站案例
"""
# 將txt文中中的資料轉換為矩陣
def file2matrix(filename):
fr = open(filename)
arrayOLines = fr.readlines()
numberOfLines = len(arrayOLines)
returnMat = zeros((numberOfLines, 3))
classLabelVector = []
index = 0
for line in arrayOLines:
# strip():
# 移除字串頭尾的指定字元
line = line.strip()
listFromLine = line.split('\t')
returnMat[index, :] = listFromLine[0:3]
classLabelVector.append(int(listFromLine[-1]))
index += 1
return returnMat, classLabelVector
# 均值歸一化
def autoNorm(dataSet):
# min(a):
# a=0 每列的最小值
# a=1 每行的最小值
minVals = dataSet.min(0)
maxVals = dataSet.max(0)
meanVals = dataSet.mean(0)
ranges = maxVals - minVals
normDataSet = zeros(shape(dataSet))
m = dataSet.shape[0]
normDataSet = dataSet - tile(meanVals, (m, 1))
normDataSet = normDataSet / tile(ranges, (m, 1))
return normDataSet, ranges, meanVals
# 分類演算法
def classify0(intX, dataSet, labels, k):
dataSetSize = dataSet.shape[0]
# tile():
# 在行方向上重複 intX,dataSetSize 次
# 在列方向上重複 intX,1 次
diffMat = tile(intX, (dataSetSize, 1)) - dataSet
# ** 表示平方
sqDiffMat = diffMat ** 2
# sum(axis=0) 表示每一列相加
# sum(axis=1) 表示每一行相加
sqDistances = sqDiffMat.sum(axis=1)
distances = sqDistances ** 0.5
# argsort():
# 按照數值從小到大,對數字的索引進行排序
sortedDistIndicies = distances.argsort()
classCount = {}
for i in range(k):
voteIlabel = labels[sortedDistIndicies[i]]
# {}.get(voteIlabel, 0):
# 查詢鍵值 voteIlabel,如果鍵值不存在則返回 0
classCount[voteIlabel] = classCount.get(voteIlabel, 0) + 1
# key=operator.itemgetter(1)
# 獲取物件第 1 個域的值
sortedClassCount = sorted(classCount.items(), key=operator.itemgetter(1), reverse=True)
return sortedClassCount[0][0]
# 測試分類演算法
def datingClassTest():
hoRatio = 0.1
datingDataMat, datingLabels = file2matrix('datingTestSet2.txt')
normMat, ranges, meanVals = autoNorm(datingDataMat)
m = normMat.shape[0]
numTestVecs = int(m * hoRatio)
correctCount = 0
for i in range(numTestVecs):
classifierResult = classify0(normMat[i, :], normMat[numTestVecs:m, :],
datingLabels[numTestVecs:m], 3)
print('the classifier came back with: %d, the real answer is: %d'
% (classifierResult, datingLabels[i]))
if classifierResult == datingLabels[i]:
correctCount += 1.0
print('the total accuracy is: %f' % (correctCount / float(numTestVecs)))
if __name__ == '__main__':
datingDataMat, datingLabels = file2matrix('datingTestSet2.txt')
fig = plt.figure()
# add_subplot(321):
# 將畫圖分割成 3 行 2 列,現在這個在從左到右從上到下第 1 個
ax = fig.add_subplot(111)
ax.scatter(datingDataMat[:, 1], datingDataMat[:, 2],
15.0 * array(datingLabels), 15.0 * array(datingLabels))
plt.show()
datingClassTest()
2.3. 手寫識別案例
# coding:utf-8
from numpy import *
import operator
from os import listdir
"""
手寫識別案例
"""
# 將01文字表示的影象轉換為向量
def img2vector(filename):
returnVect = zeros((1, 1024))
fr = open(filename)
for i in range(32):
lineStr = fr.readline()
for j in range(32):
returnVect[0, 32 * i + j] = int(lineStr[j])
return returnVect
# 分類演算法
def classify0(intX, dataSet, labels, k):
dataSetSize = dataSet.shape[0]
# tile():
# 在行方向上重複 intX,dataSetSize 次
# 在列方向上重複 intX,1 次
diffMat = tile(intX, (dataSetSize, 1)) - dataSet
# ** 表示平方
sqDiffMat = diffMat ** 2
# sum(axis=0) 表示每一列相加
# sum(axis=1) 表示每一行相加
sqDistances = sqDiffMat.sum(axis=1)
distances = sqDistances ** 0.5
# argsort():
# 按照數值從小到大,對數字的索引進行排序
sortedDistIndicies = distances.argsort()
classCount = {}
for i in range(k):
voteIlabel = labels[sortedDistIndicies[i]]
# {}.get(voteIlabel, 0):
# 查詢鍵值 voteIlabel,如果鍵值不存在則返回 0
classCount[voteIlabel] = classCount.get(voteIlabel, 0) + 1
# key=operator.itemgetter(1)
# 獲取物件第 1 個域的值
sortedClassCount = sorted(classCount.items(), key=operator.itemgetter(1), reverse=True)
return sortedClassCount[0][0]
# 測試分類演算法
def handwritingClassTest():
hwLabels = []
# 讀取目錄下檔案列表
trainingFileList = listdir('trainingDigits')
m = len(trainingFileList)
trainingMat = zeros((m, 1024))
for i in range(m):
fileNameStr = trainingFileList[i]
fileStr = fileNameStr.split('.')[0]
classNumStr = int(fileStr.split('_')[0])
hwLabels.append(classNumStr)
trainingMat[i, :] = img2vector('trainingDigits/%s' % (fileNameStr))
testFileList = listdir('testDigits')
correctCount = 0.0
mTest = len(testFileList)
for i in range(mTest):
fileNameStr = testFileList[i]
fileStr = fileNameStr.split('.')[0]
classNumStr = int(fileStr.split('_')[0])
vectorUnderTest = img2vector('testDigits/%s' % (fileNameStr))
classifierResult = classify0(vectorUnderTest, trainingMat, hwLabels, 3)
print('the classifier came back with: %d, the real answer is: %d'
% (classifierResult, classNumStr))
if classifierResult == classNumStr:
correctCount += 1.0
print('the total accuracy is: %f' % (correctCount / float(mTest)))
if __name__ == '__main__':
handwritingClassTest()
如果這篇文章對你有一點小小的幫助,請給個關注喔~我會非常開心的~