非監督學習方法---k均值聚類(k-means)


簡介聚類屬於無監督學習,相比於分類,聚類不依賴預定義的類和類標號的訓練實例。本文首先介紹聚類的基礎——距離與相異度,然后介紹一種常見的聚類算法——k均值和k中心點聚類。

一:相異度計算:

在正式討論聚類前,我們要先弄清楚一個問題:如何定量計算兩個可比較元素間的相異度。用通俗的話說,相異度就是兩個東西差別有多大,例如人類與章魚的相異度明顯大於人類與黑猩猩的相異度,這是能我們直觀感受到的。但是,計算機沒有這種直觀感受能力,我們必須對相異度在數學上進行定量定義。

      ,其中X,Y是兩個元素項,各自具有n個可度量特征屬性,那么X和Y的相異度定義為:,其中R為實數域。也就是說相異度是兩個元素對實數域的一個映射,所映射的實數定量表示兩個元素的相異度。

      下面介紹不同類型變量相異度計算方法。

1.標量:

標量也就是無方向意義的數字,也叫標度變量。現在先考慮元素的所有特征屬性都是標量的情況。例如,計算X={2,1,102}和Y={1,3,2}的相異度。一種很自然的想法是用兩者的歐幾里得距離來作為相異度,歐幾里得距離的定義如下:

 

      其意義就是兩個元素在歐氏空間中的集合距離,因為其直觀易懂且可解釋性強,被廣泛用於標識兩個標量元素的相異度。將上面兩個示例數據代入公式,可得兩者的歐氏距離為:

     

  除歐氏距離外,常用作度量標量相異度的還有曼哈頓距離和閔可夫斯基距離,兩者定義如下:

      曼哈頓距離:

      閔可夫斯基距離:

      歐氏距離和曼哈頓距離可以看做是閔可夫斯基距離在p=2和p=1下的特例。另外這三種距離都可以加權,這個很容易理解,不再贅述。

      下面要說一下標量的規格化問題。上面這樣計算相異度的方式有一點問題,就是取值范圍大的屬性對距離的影響高於取值范圍小的屬性。例如上述例子中第三個屬性的取值跨度遠大於前兩個,這樣不利於真實反映真實的相異度,為了解決這個問題,一般要對屬性值進行規格化。所謂規格化就是將各個屬性值按比例映射到相同的取值區間,這樣是為了平衡各個屬性對距離的影響。通常將各個屬性均映射到[0,1]區間,映射公式為:

     

      其中max(ai)和min(ai)表示所有元素項中第i個屬性的最大值和最小值。例如,將示例中的元素規格化到[0,1]區間后,就變成了X’={1,0,1},Y’={0,1,0},重新計算歐氏距離約為1.732。

2.二元變量

 所謂二元變量是只能取0和1兩種值變量,有點類似布爾值,通常用來標識是或不是這種二值屬性。對於二元變量,上一節提到的距離不能很好標識其相異度,我們需要一種更適合的標識。一種常用的方法是用元素相同序位同值屬性的比例來標識其相異度。

      設有X={1,0,0,0,1,0,1,1},Y={0,0,0,1,1,1,1,1},可以看到,兩個元素第2、3、5、7和8個屬性取值相同,而第1、4和6個取值不同,那么相異度可以標識為3/8=0.375。一般的,對於二元變量,相異度可用“取值不同的同位屬性數/單個元素的屬性位數”標識。

      上面所說的相異度應該叫做對稱二元相異度。現實中還有一種情況,就是我們只關心兩者都取1的情況,而認為兩者都取0的屬性並不意味着兩者更相似。例如在根據病情對病人聚類時,如果兩個人都患有肺癌,我們認為兩個人增強了相似度,但如果兩個人都沒患肺癌,並不覺得這加強了兩人的相似性,在這種情況下,改用“取值不同的同位屬性數/(單個元素的屬性位數-同取0的位數)”來標識相異度,這叫做非對稱二元相異度。如果用1減去非對稱二元相異度,則得到非對稱二元相似度,也叫Jaccard系數,是一個非常重要的概念。

推廣:分類變量

分類變量是二元變量的推廣,類似於程序中的枚舉變量,但各個值沒有數字或序數意義,如顏色、民族等等,對於分類變量,用“取值不同的同位屬性數/單個元素的全部屬性數”來標識其相異度。

3.序數變量

序數變量是具有序數意義的分類變量,通常可以按照一定順序意義排列,如冠軍、亞軍和季軍。對於序數變量,一般為每個值分配一個數,叫做這個值的秩,然后以秩代替原值當做標量屬性計算相異度。

4.向量

  對於向量,由於它不僅有大小而且有方向,所以閔可夫斯基距離不是度量其相異度的好辦法,一種流行的做法是用兩個向量的余弦度量,其度量公式為:

     

      其中||X||表示X的歐幾里得范數。要注意,余弦度量度量的不是兩者的相異度,而是相似度!

向量內積(數量積,點積):

在數學中,數量積(dot product; scalar product,也稱為點積)是接受在實數R上的兩個 向量並返回一個實數值 標量二元運算。它是 歐幾里得空間的標准 內積
兩個向量a = [a1, a2,…, an]和b = [b1, b2,…, bn]的點積定義為:
a·b=a1b1+a2b2+……+anbn。
使用 矩陣乘法並把(縱列)向量當作n×1  矩陣,點積還可以寫為:
a·b=a*b^T,這里的b^T指示矩陣b的 轉置
向量外積:
把向量外積定義為:
|a  ×b| = |a|·|b|·Sin<a,b>.
方向根據右手法則確定,就是手掌立在a、b所在平面的向量a上,掌心向b,那么大拇指方向就是垂直於該平面的方向,被規定為 外積的方向。
 
 
二:聚類問題:

     所謂聚類問題,就是給定一個元素集合D,其中每個元素具有n個可觀察屬性,使用某種算法將D划分成k個子集,要求每個子集內部的元素之間相異度盡可能低,而不同子集的元素相異度盡可能高。其中每個子集叫做一個簇。

     與分類不同,分類是示例式學習,要求分類前明確各個類別,並斷言每個元素映射到一個類別,而聚類是觀察式學習,在聚類前可以不知道類別甚至不給定類別數量,是無監督學習的一種。目前聚類廣泛應用於統計學、生物學、數據庫技術和市場營銷等領域,相應的算法也非常的多。本文僅介紹一種最簡單的聚類算法——k均值(k-means)算法。

 

三:K-means算法及其示例

 k均值算法的計算過程非常直觀:

      1、從D中隨機取k個元素,作為k個簇的各自的中心。

      2、分別計算剩下的元素到k個簇中心的相異度,將這些元素分別划歸到相異度最低的簇。

      3、根據聚類結果,重新計算k個簇各自的中心,計算方法是取簇中所有元素各自維度的算術平均數。

      4、將D中全部元素按照新的中心重新聚類。

      5、重復第4步,直到聚類結果不再變化。

      6、將結果輸出。

 

 

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM