1. 程式人生 > >各類距離的意義與Python實現

各類距離的意義與Python實現

轉載來自:http://book.2cto.com/201511/58274.html,本文所屬圖書 > 機器學習演算法原理與程式設計實踐。

本節所列的距離公式列表和程式碼如下:

閔可夫斯基距離(Minkowski Distance)

歐氏距離(Euclidean Distance)

曼哈頓距離(Manhattan Distance)

切比雪夫距離(Chebyshev Distance)

夾角餘弦(Cosine)

漢明距離(Hamming distance)

傑卡德相似係數(Jaccard similarity coefficient)

讀者可根據自己需求有選擇的學習。因使用向量

程式設計的方法,距離計算得到了較大的簡化。

1. 閔可夫斯基距離(Minkowski Distance)

嚴格意義上,閔氏距離不是一種距離,而是一組距離的定義。

(1)閔氏距離的定義:

兩個n維變數A(x11,x12,…,x1n)與 B(x21,x22,…,x2n)間的閔可夫斯基距離定義為:


 

其中p是一個變引數。

當p=1時,就是曼哈頓距離

當p=2時,就是歐氏距離

當p→∞時,就是切比雪夫距離

根據變引數的不同,閔氏距離可以表示一類的距離。

2.歐氏距離(Euclidean Distance)

歐氏距離(L2範數)是最易於理解的一種距離計算方法,源自歐氏空間中兩點間的距離公式(如圖1.9)。



(4) python實現歐式距離公式的:

from numpy import*
 
vector1 = mat([1,2,3])
vector2 = mat([4,5,6])
print sqrt((vector1-vector2)*((vector1-vector2).T))
輸出:
[[5.19615242]]


?

3.曼哈頓距離(Manhattan Distance)

從名字就可以猜出這種距離的計算方法了。想象你在曼哈頓要從一個十字路口開車到另外一個十字路口,駕駛距離是兩點間的直線距離嗎?顯然不是,除非你能穿越大樓。實際駕駛距離就是這個“曼哈頓距離”(L1範數)。而這也是曼哈頓距離名稱的來源,曼哈頓距離也稱為城市街區距離(City Block distance)(如圖1.10)。
 


 

(3)python實現曼哈頓距離:

from numpy import*
 
vector1 = mat([1,2,3])
vector2 = mat([4,5,6])
print sum(abs(vector1-vector2))
輸出:
9

4.切比雪夫距離(Chebyshev Distance)

國際象棋玩過麼?國王走一步能夠移動到相鄰的8個方格中的任意一個(如圖1.11)。那麼國王從格子(x1,y1)走到格子(x2,y2)最少需要多少步?自己走走試試。你會發現最少步數總是max(| x2-x1| , |y2-y1| ) 步。有一種類似的一種距離度量方法叫切比雪夫距離(L∞範數)。


 

(3) Python實現切比雪夫距離:

from numpy import*
 
vector1 = mat([1,2,3])
vector2 = mat([4,7,5])
print abs(vector1-vector2).max()
輸出:
5

5. 夾角餘弦(Cosine)

幾何中夾角餘弦可用來衡量兩個向量方向的差異,機器學習中借用這一概念來衡量樣本向量之間的差異(如圖1.12)。


(1)在二維空間中向量A(x1,y1)與向量B(x2,y2)的夾角餘弦公式:


 

(2) 兩個n維樣本點A (x11,x12,…,x1n)與 B(x21,x22,…,x2n)的夾角餘弦
類似的,對於兩個n維樣本點A(x11,x12,…,x1n)與 B(x21,x22,…,x2n),可以使用類似於夾角餘弦的概念來衡量它們間的相似程度。


 

夾角餘弦取值範圍為[-1,1]。夾角餘弦越大表示兩個向量的夾角越小,夾角餘弦越小表示兩向量的夾角越大。當兩個向量的方向重合時夾角餘弦取最大值1,當兩個向量的方向完全相反夾角餘弦取最小值-1。

(3)python實現夾角餘弦

 

from numpy import*
 
cosV12 = dot(vector1,vector2)/(linalg.norm(vector1)*linalg.norm(vector2))
print cosV12
輸出:
0.92966968


6. 漢明距離(Hamming distance)

(1)漢明距離的定義

兩個等長字串s1與s2之間的漢明距離定義為將其中一個變為另外一個所需要作的最小替換次數。例如字串“1111”與“1001”之間的漢明距離為2。

應用:資訊編碼(為了增強容錯性,應使得編碼間的最小漢明距離儘可能大)。

(2) python實現漢明距離:

 

from numpy import*
matV = mat([[1,1,0,1,0,1,0,0,1],[0,1,1,0,0,0,1,1,1]])
smstr = nonzero(matV[0]-matV[1]);
print shape(smstr[0])[1]
輸出:
6

7. 傑卡德相似係數(Jaccard similarity coefficient)

(1) 傑卡德相似係數

兩個集合A和B的交集元素在A,B的並集中所佔的比例,稱為兩個集合的傑卡德相似係數,用符號J(A,B)表示。


 

傑卡德相似係數是衡量兩個集合的相似度一種指標。

(2) 傑卡德距離

與傑卡德相似係數相反的概念是傑卡德距離(Jaccard distance)。傑卡德距離可用如下公式表示:


 

傑卡德距離用兩個集合中不同元素佔所有元素的比例來衡量兩個集合的區分度。

(3) 傑卡德相似係數與傑卡德距離的應用

可將傑卡德相似係數用在衡量樣本的相似度上。

樣本A與樣本B是兩個n維向量,而且所有維度的取值都是0或1。例如:A(0111)和B(1011)。我們將樣本看成是一個集合,1表示集合包含該元素,0表示集合不包含該元素。

P:樣本A與B都是1的維度的個數

q:樣本A是1,樣本B是0的維度的個數

r:樣本A是0,樣本B是1的維度的個數

s:樣本A與B都是0的維度的個數

那麼樣本A與B的傑卡德相似係數可以表示為:

這裡p+q+r可理解為A與B的並集的元素個數,而p是A與B的交集的元素個數。

而樣本A與B的傑卡德距離表示為:


 

(4) Python實現傑卡德距離:

from numpy import*
importscipy.spatial.distance as dist  # 匯入scipy距離公式
matV = mat([[1,1,0,1,0,1,0,0,1],[0,1,1,0,0,0,1,1,1]])
print"dist.jaccard:", dist.pdist(matV,'jaccard')
輸出:
dist.jaccard: [ 0.75]

 現在,我們有能力為矩陣中物件間的相似程度(接近與遠離)提供各種度量方法,以及編碼實現。通過計算物件間的距離,我們就可以輕鬆地得到表2.8中的四個物件所屬的類別:以克、天為單位的蘋果是水果類別的一個例項; 以噸、年為單位鯊魚是大型動物的一個例項。這種區別是明顯的,但是,如果我們考察顏色這個特徵,情況可能會有所不同,蘋果和梨都有黃色這個特徵,像這種情況我們如何區分呢?

結合本例,我們不去研究黃色的蘋果與黃色的梨有什麼差別。而承認其統計規律:蘋果是紅色的概率是0.8,蘋果是黃色的概率就是1-0.8=0.2,而梨是黃色的概率是0.9,將其作為先驗概率。有了這個先驗概率,就可以利用抽樣,即任取一個水果,前提是抽樣對總體的概率分佈沒有影響,通過它的某個特徵來劃分其所屬的類別。黃色是蘋果和梨共有的特徵,因此,既有可能是蘋果也有可能是梨,概率計算的意義在於得到這個水果更有可能的那一種。

這個問題的求解過程就是著名的貝葉斯公式:


 

用數學的語言來表達,就是已知P(蘋果)=10/(10+10),P(梨)=10/(10+10),P(黃色|蘋果)

=20%,P(黃色|梨)=90%,求P(梨|黃色)

可得:P(梨|黃色)=P(黃色,梨)/P(黃色)

=P(黃色|梨)P(梨)/P(黃色)

=81.8%

貝葉斯公式貫穿了機器學習中隨機問題分析的全過程。從文字分類到概率圖模型,其基本原理都是貝葉斯公式,是機器學習領域最重要的基礎概念。