- 參考:http://blog.csdn.net/mousever/article/details/45967643
- 概率分布之間的距離度量以及python實現
- http://www.cnblogs.com/wentingtu/archive/2012/05/03/2479919.html
- 1. 歐氏距離,最常見的兩點之間或多點之間的距離表示法,又稱之為歐幾里得度量,它定義於歐幾里得空間中,如點 x = (x1,...,xn) 和 y = (y1,...,yn) 之間的距離為:
(1)二維平面上兩點a(x1,y1)與b(x2,y2)間的歐氏距離:
(2)三維空間兩點a(x1,y1,z1)與b(x2,y2,z2)間的歐氏距離:
(3)兩個n維向量a(x11,x12,…,x1n)與 b(x21,x22,…,x2n)間的歐氏距離:
也可以用表示成向量運算的形式:
其上,二維平面上兩點歐式距離,代碼可以如下編寫:
1 //unixfy:計算歐氏距離 2 double euclideanDistance(const vector<</span>double>& v1, const vector<</span>double>& v2) 3 { 4 assert(v1.size() == v2.size()); 5 double ret = 0.0; 6 for (vector<</span>double>::size_type i = 0; i != v1.size(); ++i) 7 { 8 ret += (v1[i] - v2[i]) * (v1[i] - v2[i]); 9 } 10 return sqrt(ret); 11 } 12
- 2. 曼哈頓距離,我們可以定義曼哈頓距離的正式意義為L1-距離或城市區塊距離,也就是在歐幾里得空間的固定直角坐標系上兩點所形成的線段對軸產生的投影的距離總和。例如在平面上,坐標(x1, y1)的點P1與坐標(x2, y2)的點P2的曼哈頓距離為:
,要注意的是,曼哈頓距離依賴座標系統的轉度,而非系統在座標軸上的平移或映射。
(1)二維平面兩點a(x1,y1)與b(x2,y2)間的曼哈頓距離
(2)兩個n維向量a(x11,x12,…,x1n)與 b(x21,x22,…,x2n)間的曼哈頓距離![]()
- 3. 切比雪夫距離,若二個向量或二個點p 、and q,其座標分別為
及
,則兩者之間的切比雪夫距離定義如下:
,




(1)二維平面兩點a(x1,y1)與b(x2,y2)間的切比雪夫距離
(2)兩個n維向量a(x11,x12,…,x1n)與 b(x21,x22,…,x2n)間的切比雪夫距離
這個公式的另一種等價形式是
- 4. 閔可夫斯基距離(Minkowski Distance),閔氏距離不是一種距離,而是一組距離的定義。
(1) 閔氏距離的定義兩個n維變量a(x11,x12,…,x1n)與 b(x21,x22,…,x2n)間的閔可夫斯基距離定義為:
其中p是一個變參數。當p=1時,就是曼哈頓距離當p=2時,就是歐氏距離當p→∞時,就是切比雪夫距離根據變參數的不同,閔氏距離可以表示一類的距離。
-
5. 標准化歐氏距離 (Standardized Euclidean distance ),標准化歐氏距離是針對簡單歐氏距離的缺點而作的一種改進方案。標准歐氏距離的思路:既然數據各維分量的分布不一樣,那先將各個分量都“標准化”到均值、方差相等。至於均值和方差標准化到多少,先復習點統計學知識。假設樣本集X的數學期望或均值(mean)為m,標准差(standard deviation,方差開根)為s,那么X的“標准化變量”X*表示為:(X-m)/s,而且標准化變量的數學期望為0,方差為1。
即,樣本集的標准化過程(standardization)用公式描述就是:
經過簡單的推導就可以得到兩個n維向量a(x11,x12,…,x1n)與 b(x21,x22,…,x2n)間的標准化歐氏距離的公式:
-
6. 馬氏距離(Mahalanobis Distance)(1)馬氏距離定義
有M個樣本向量X1~Xm, 協方差矩陣記為S,均值記為向量μ,則其中樣本向量X到u的馬氏距離表示為:
(協方差矩陣中每個元素是各個矢量元素之間的協方差Cov(X,Y),Cov(X,Y) = E{ [X-E(X)] [Y-E(Y)]},其中E為數學期望)而其中向量Xi與Xj之間的馬氏距離定義為:
若協方差矩陣是對角矩陣,公式變成了標准化歐氏距離。
(2)馬氏距離的優缺點:量綱無關,排除變量之間的相關性的干擾。「微博上的seafood高清版點評道:原來馬氏距離是根據協方差矩陣演變,一直被老師誤導了,怪不得看Killian在05年NIPS發表的LMNN論文時候老是看到協方差矩陣和半正定,原來是這回事」 - 7、巴氏距離(Bhattacharyya Distance),在統計中,Bhattacharyya距離測量兩個離散或連續概率分布的相似性。它與衡量兩個統計樣品或種群之間的重疊量的Bhattacharyya系數密切相關。Bhattacharyya距離和Bhattacharyya系數以20世紀30年代曾在印度統計研究所工作的一個統計學家A. Bhattacharya命名。同時,Bhattacharyya系數可以被用來確定兩個樣本被認為相對接近的,它是用來測量中的類分類的可分離性。
(1)巴氏距離的定義對於離散概率分布 p和q在同一域 X,它被定義為:
其中:
是Bhattacharyya系數。對於連續概率分布,Bhattacharyya系數被定義為:
在這兩種情況下,巴氏距離
並沒有服從三角不等式.(值得一提的是,Hellinger距離不服從三角不等式
)。
對於多變量的高斯分布,
,
和是手段和協方差的分布。
需要注意的是,在這種情況下,第一項中的Bhattacharyya距離與馬氏距離有關聯。(2)Bhattacharyya系數Bhattacharyya系數是兩個統計樣本之間的重疊量的近似測量,可以被用於確定被考慮的兩個樣本的相對接近。計算Bhattacharyya系數涉及集成的基本形式的兩個樣本的重疊的時間間隔的值的兩個樣本被分裂成一個選定的分區數,並且在每個分區中的每個樣品的成員的數量,在下面的公式中使用
考慮樣品a 和 b ,n是的分區數,並且,
被一個 和 b i的日分區中的樣本數量的成員。更多介紹請參看: http://en.wikipedia.org/wiki/Bhattacharyya_coefficient。
- 8. 漢明距離(Hamming distance),兩個等長字符串s1與s2之間的漢明距離定義為將其中一個變為另外一個所需要作的最小替換次數。例如字符串“1111”與“1001”之間的漢明距離為2。應用:信息編碼(為了增強容錯性,應使得編碼間的最小漢明距離盡可能大)。
或許,你還沒明白我再說什么,不急,看下 上篇blog中第78題的第3小題整理的一道面試題目,便一目了然了。如下圖所示:![]()
- //動態規划:
- //f[i,j]表示s[0...i]與t[0...j]的最小編輯距離。
- f[i,j] = min { f[i-1,j]+1, f[i,j-1]+1, f[i-1,j-1]+(s[i]==t[j]?0:1) }
- //分別表示:添加1個,刪除1個,替換1個(相同就不用替換)。
與此同時,面試官還可以繼續問下去:那么,請問,如何設計一個比較兩篇文章相似性的算法?(這個問題的討論可以看看這里: http://t.cn/zl82CAH,及這里關於simhash算法的介紹: http://www.cnblogs.com/linecong/archive/2010/08/28/simhash.html),接下來,便引出了下文關於夾角余弦的討論。( 上篇blog中第78題的第3小題給出了多種方法,讀者可以參看之。同時,程序員編程藝術系列第二十八章將詳細闡述這個問題)
- 9. 夾角余弦(Cosine) ,幾何中夾角余弦可用來衡量兩個向量方向的差異,機器學習中借用這一概念來衡量樣本向量之間的差異。
(1)在二維空間中向量A(x1,y1)與向量B(x2,y2)的夾角余弦公式:
(2) 兩個n維樣本點a(x11,x12,…,x1n)和b(x21,x22,…,x2n)的夾角余弦
![]()
類似的,對於兩個n維樣本點a(x11,x12,…,x1n)和b(x21,x22,…,x2n),可以使用類似於夾角余弦的概念來衡量它們間的相似程度,即:
夾角余弦取值范圍為[-1,1]。夾角余弦越大表示兩個向量的夾角越小,夾角余弦越小表示兩向量的夾角越大。當兩個向量的方向重合時夾角余弦取最大值1,當兩個向量的方向完全相反夾角余弦取最小值-1。
- 10. 傑卡德相似系數(Jaccard similarity coefficient)
(1) 傑卡德相似系數兩個集合A和B的交集元素在A,B的並集中所占的比例,稱為兩個集合的傑卡德相似系數,用符號J(A,B)表示。
傑卡德相似系數是衡量兩個集合的相似度一種指標。(2) 傑卡德距離與傑卡德相似系數相反的概念是傑卡德距離(Jaccard distance)。傑卡德距離可用如下公式表示:
傑卡德距離用兩個集合中不同元素占所有元素的比例來衡量兩個集合的區分度。(3) 傑卡德相似系數與傑卡德距離的應用可將傑卡德相似系數用在衡量樣本的相似度上。
舉例:樣本A與樣本B是兩個n維向量,而且所有維度的取值都是0或1,例如:A(0111)和B(1011)。我們將樣本看成是一個集合,1表示集合包含該元素,0表示集合不包含該元素。M11 :樣本A與B都是1的維度的個數M01:樣本A是0,樣本B是1的維度的個數M10:樣本A是1,樣本B是0 的維度的個數M00:樣本A與B都是0的維度的個數依據上文給的傑卡德相似系數及傑卡德距離的相關定義,樣本A與B的傑卡德相似系數J可以表示為:
這里M11+M01+M10可理解為A與B的並集的元素個數,而M11是A與B的交集的元素個數。而樣本A與B的傑卡德距離表示為J':
- 11.皮爾遜系數(Pearson Correlation Coefficient)
(其中,E為數學期望或均值,D為方差,D開根號為標准差,E{ [X-E(X)] [Y-E(Y)]}稱為隨機變量X與Y的協方差,記為Cov(X,Y),即Cov(X,Y) = E{ [X-E(X)] [Y-E(Y)]},而兩個變量之間的協方差和標准差的商則稱為隨機變量X與Y的相關系數,記為)
- 當相關系數為0時,X和Y兩變量無關系。
- 當X的值增大(減小),Y值增大(減小),兩個變量為正相關,相關系數在0.00與1.00之間。
- 當X的值增大(減小),Y值減小(增大),兩個變量為負相關,相關系數在-1.00與0.00之間。

OK,接下來,咱們來重點了解下皮爾遜相關系數。在統計學中,皮爾遜積矩相關系數(英語:Pearson product-moment correlation coefficient,又稱作 PPMCC或PCCs, 用r表示)用於度量兩個變量X和Y之間的相關(線性相關),其值介於-1與1之間。通常情況下通過以下取值范圍判斷變量的相關強度:
相關系數 0.8-1.0 極強相關
0.6-0.8 強相關
0.4-0.6 中等程度相關
0.2-0.4 弱相關
0.0-0.2 極弱相關或無相關在自然科學領域中,該系數廣泛用於度量兩個變量之間的相關程度。它是由卡爾·皮爾遜從弗朗西斯·高爾頓在19世紀80年代提出的一個相似卻又稍有不同的想法演變而來的。這個相關系數也稱作“皮爾森相關系數r”。(1)皮爾遜系數的定義:兩個變量之間的皮爾遜相關系數定義為兩個變量之間的協方差和標准差的商:

以上方程定義了總體相關系數, 一般表示成希臘字母ρ(rho)。基於樣本對協方差和方差進行估計,可以得到樣本標准差, 一般表示成r:

一種等價表達式的是表示成標准分的均值。基於(Xi, Yi)的樣本點,樣本皮爾遜系數是

其中、
及
,分別是標准分、樣本平均值和樣本標准差。
或許上面的講解令你頭腦混亂不堪,沒關系,我換一種方式講解,如下:假設有兩個變量X、Y,那么兩變量間的皮爾遜相關系數可通過以下公式計算:
- 公式一:
注:勿忘了上面說過,“皮爾遜相關系數定義為兩個變量之間的協方差和標准差的商”,其中標准差的計算公式為:![]()
(2)皮爾遜相關系數的適用范圍
當兩個變量的標准差都不為零時,相關系數才有定義,皮爾遜相關系數適用於:
- 兩個變量之間是線性關系,都是連續數據。
- 兩個變量的總體是正態分布,或接近正態的單峰分布。
- 兩個變量的觀測值是成對的,每對觀測值之間相互獨立。
(3)如何理解皮爾遜相關系數
rubyist:皮爾遜相關系數理解有兩個角度
其一, 按照高中數學水平來理解, 它很簡單, 可以看做將兩組數據首先做Z分數處理之后, 然后兩組數據的乘積和除以樣本數,Z分數一般代表正態分布中, 數據偏離中心點的距離.等於變量減掉平均數再除以標准差.(就是高考的標准分類似的處理)
樣本標准差則等於變量減掉平均數的平方和,再除以樣本數,最后再開方,也就是說,方差開方即為標准差,樣本標准差計算公式為:
所以, 根據這個最朴素的理解,我們可以將公式依次精簡為:
其二, 按照大學的線性數學水平來理解, 它比較復雜一點,可以看做是兩組數據的向量夾角的余弦。下面是關於此皮爾遜系數的幾何學的解釋,先來看一幅圖,如下所示:
回歸直線: y=gx(x) [紅色] 和 x=gy(y) [藍色]
如上圖,對於沒有中心化的數據, 相關系數與兩條可能的回歸線y=gx(x) 和 x=gy(y) 夾角的余弦值一致。
對於沒有中心化的數據 (也就是說, 數據移動一個樣本平均值以使其均值為0), 相關系數也可以被視作由兩個隨機變量 向量 夾角 的余弦值(見下方)。
舉個例子,例如,有5個國家的國民生產總值分別為 10, 20, 30, 50 和 80 億美元。 假設這5個國家 (順序相同) 的貧困百分比分別為 11%, 12%, 13%, 15%, and 18% 。 令 x 和 y 分別為包含上述5個數據的向量: x = (1, 2, 3, 5, 8) 和 y = (0.11, 0.12, 0.13, 0.15, 0.18)。
利用通常的方法計算兩個向量之間的夾角 (參見 數量積), 未中心化 的相關系數是:

我們發現以上的數據特意選定為完全相關: y = 0.10 + 0.01 x。於是,皮爾遜相關系數應該等於1。將數據中心化 (通過E(x) = 3.8移動 x 和通過 E(y) = 0.138 移動 y ) 得到 x = (−2.8, −1.8, −0.8, 1.2, 4.2) 和 y = (−0.028, −0.018, −0.008, 0.012, 0.042), 從中

(4)皮爾遜相關的約束條件
從以上解釋, 也可以理解皮爾遜相關的約束條件:
- 1 兩個變量間有線性關系
- 2 變量是連續變量
- 3 變量均符合正態分布,且二元分布也符合正態分布
- 4 兩變量獨立
在實踐統計中,一般只輸出兩個系數,一個是相關系數,也就是計算出來的相關系數大小,在-1到1之間;另一個是獨立樣本檢驗系數,用來檢驗樣本一致性。