常見聚類算法總結


.關於聚類

什么是聚類

聚類(Clustering)是按照某個特定標准(如距離)把一個數據集分割成不同的類或簇,使得同一個簇內的數據對象的相似性盡可能大,同時不在同一個簇中的數據對象的差異性也盡可能地大。也即聚類后同一類的數據盡可能聚集到一起,不同類數據盡量分離。

什么不是聚類

● 監督分類 – 有類標簽信息(通常就叫做分類)

● 簡單分割 – 按姓氏的字母順序將學生分為不同的注冊組

● 查詢結果 – 分組是外部規范的結果

● 圖形分區 – 一些相互關聯和協同作用,但領域並不相同

聚類的種類:

按照聚類方式:

 

按照排他性:在排他性聚類中,點只能屬於一個聚類;在非排他性聚類中,點可能屬於多個聚類,可以表示多個類或"邊界"點。

按照模糊性:在模糊聚類中,一個點屬於每個權重在 0 到 1 之間的聚類,權重必須總和為 1,概率聚類具有相似的特點。非模糊聚類中,每個點有唯一的預測類別

按照簇的組織方式:

基於中心的集群:簇是一組對象,使得簇中的對象比任何其他簇的中心更接近 (更相似)簇的“中心”,簇的中心通常是質心,即簇中所有點的平均值,或者是中心點,即簇中最具“代表性”的點

 

數據間的相似度度量:

閔可夫斯基距離就是Lp范數(p為正整數),而曼哈頓距離、歐式距離、切比雪夫距離分別對應

簇間相似度度量:

1)最小值:

 

2)最大值:

 

3)組平均:

 

4)質心距離

5)Ward 方法:基於SSE的增加(在層次聚類中越小合並效果越好)

 

不太容易受到噪音和異常值的影響,偏向球狀星團

評估不同聚類方案的優劣

最常見的度量是平方誤差總和 (SSE,Sum of Square Error),每個點距離自己所在簇的代表點(均值點)的距離之和,減少 SSE 的一種簡單方法是增加 K,集群的數量

另一種方法:方差比率

 

N,圖中的總點數

聚類方法的分類:

 

類別

包括的主要算法

划分方法

K-Means算法(均值)、K-medoids算法(中心點)、K-modes算法(眾數)、k-prototypes算法、CLARANS(基於選擇),K-Means++,bi-KMeans

層次分析

BIRCH算法(平衡迭代規約)、CURE算法(點聚類)、CHAMELEON(動態模型),Agglomerative(凝聚式),Divisive(分裂式)

基於密度

DBSCAN(基於高密度連接區域)、DENCLUE(密度分布函數)、OPTICS(對象排序識別)

基於網格

STING(統計信息網絡)、CLIOUE(聚類高維空間)、WAVE-CLUSTER(小波變換)

基於模型

統計學方法(比如GMM)、神經網絡(比如SOM(Self Organized Maps))

其他方法

量子聚類,核聚類,譜聚類

聚類算法之外的處理方法:

 

二.划分式聚類方法

k-means

算法流程:

1.選擇K點作為初始質心

2.重復直到質心不變

(1)通過將所有點指定給最近的質心形成K簇

(2)重新計算每個簇的質心

初始質心通常是隨機選擇的,產生的集群因一次運行而異。大多數收斂發生在前幾次迭代中,因為通常將停止條件更改為“直到相對較少的點更改集群”

K值的選擇:

 

對 k = 1,2,4,8,... 運行 k-means 算法,找到兩個值 v 和 2v,它們之間的平均直徑幾乎沒有減少,證明的 k 值位於 v/2 和 v 之間,然后在這之間使用二分搜索

處理K-means產生的空簇:選擇對 SSE 貢獻最大的點;從具有最高 SSE 的集群中選擇一個點。並入空簇,這樣下一輪空簇的中心就會移到選的點去

舉例:

 

更新一輪后

 

增量更新中心的 K-means:在基本的 K-means 算法中,在所有點都分配給一個質心后更新質心

另一種方法是在分配一個點后更新質心(增量方法)

 – 每個分配更新零個或兩個質心

– 更高代價

– 引入順序依賴

– 永遠不會得到一個空集群

– 可以使用“權重”來改變影響

bi-k-means算法:

初始只有一個cluster包含所有樣本點;

repeat:

    從待分裂的clusters中選擇一個進行二元分裂,所選的cluster應使得SSE最小(可以每一個都分裂,選SSE的最小那個);

until 有k個cluster

k-means++算法:

k-means++是針對k-means中初始質心點選取的優化算法。該算法的流程和k-means類似,改變的地方只有初始質心的選取,該部分的算法流程如下

 

K-means 的局限性:當集群尺寸或密度不同時,集群為非球形形狀,數據包含異常值時,K-means 可能會有問題。一種解決方案是使用大量集群,找到集群的部分,最后結合在一起(提升k值后再使用人工方法)

 

 

.基於密度的聚類:

基於密度的聚類定位由低密度區域彼此分隔的高密度區域。

 

DBSCAN 算法:

核心點:在半徑 Eps 內具有超過指定數量的點 (MinPts)

邊界點:點在半徑 Eps 內少於 MinPts 個點,但在核心點的鄰域(半徑EPS的圈內)內

噪聲點:既不是核心點也不是邊界點的任何點

 

 

相距 Eps 之內的任意兩個核心點都在同一個簇中,任何在核心點半徑 Eps 內的邊界點都與核心點放在同一個簇中,丟棄所有噪聲點(DBSCAN是部分聚類方法,並非所有點都被聚類)

DBSCAN 實際上需要 O(n2) 時間,只要允許聚類結果的輕微不准確,運行時間就可以顯着降低到 O(n)

想法是對於集群中的點,它們的第k最近鄰距離大致相同;噪聲點在更遠的距離處具有第k最近鄰距離;因此,繪制每個點到其第k最近鄰距離的排序距離

 

由圖:3000個點里2800個第4近鄰在10以內,因此可以設置EPS=10,MinPts=4

.層次聚類:

 

凝聚式聚類:

 

類似與凝聚式聚類的方法可以作為kmeans的質心初始化步驟

 

非歐空間不能選質心的問題:因為非歐空間無法求平均,可以用以下方法代替

 

可以選以上值最小的點作為集群的中心

分裂式聚類:

 

 

治愈算法(CURE(Clustering Using Representative)):

不是通過質心來表示集群,而是使用一組代表點。

 

CURE 能夠更好地處理任意形狀和大小的集群。向中心收縮代表點有助於避免噪聲和異常值問題。

 

 

合並集群的同時,剔除孤立點

 

cure的特點:使用了采樣減少計算量;使用多個點代表集群,可以匹配那些非球形的場景,而且收縮因子的使用可以減少噪音對聚類的影響

 

稀疏化鄰近圖:

(從圖的角度理解聚類)

 

 

 

變色龍算法:

當前合並方案的局限性:層次聚類算法中現有的合並方案本質上是靜態的

變色龍可以適應數據集特征尋找自然聚類,使用動態模型來衡量集群之間的相似性和互連性。

 

1. k-最近鄰圖Gk的構造(第一階段)

Gk圖中的每個點,表示數據集中的一個數據點。對於數據集中的每一個數據點找出它的所有k-最近鄰對象,然后分別在它們之間加帶權邊。

如何找k-最近鄰對象呢??即找離該對象最近的k個對象點,

(定義:若點ai到另一個點bi的距離值是所有數據點到bi的距離值中k個最小值之一,則稱ai是bi的k-最近鄰對象。)

若一個數據點是另一個數據點的k-最近鄰對象之一,則在這兩點之間加一條帶權邊,邊的權值表示這兩個數據點之間的相似度,即距離越大邊權值越小,則近似度越小。

2.划分圖(第二階段)

所做的一件關鍵的事情就是形成小簇集,由零星的幾個數據點連成小簇,官方的作法是用hMetic算法根據最小化截斷的邊的權重和來分割k-最近鄰圖,然后我網上找了一些資料,沒有確切的hMetic算法,借鑒了網上其他人的一些辦法,於是用了一個很簡單的思路,就是給定一個點,把他離他最近的k個點連接起來,就算是最小簇了。事實證明,效果也不會太差,最近的點的換一個意思就是與其最大權重的邊,采用距離的倒數最為權重的大小。因為后面的計算,用到的會是權重而不是距離

3.

首先是2個略復雜的公式:

相對互連性RI

 

相對近似性RC

 

Ci,Cj表示的是i,j聚簇內的數據點的個數,EC(Ci)表示的Ci聚簇內的邊的權重和,EC(Ci,Cj)表示的是連接2個聚簇的邊的權重和。

那么合並的過程如下:

1、給定度量函數如下minMetric,

2、訪問每個簇,計算他與鄰近的每個簇的RC和RI,通過度量函數公式計算出值tempMetric。

3、找到最大的tempMetric,如果最大的tempMetric超過閾值minMetric,將簇與此值對應的簇合並

4、如果找到的最大的tempMetric沒有超過閾值,則表明此聚簇已合並完成,移除聚簇列表,加入到結果聚簇中。

5、遞歸步驟2,直到待合並聚簇列表最終大小為空。

.基於網格的聚類:

定義一組網格單元,將對象分配給單元格並計算每個單元格的密度,消除密度低於指定閾值 t 的細胞,從連續的密集細胞組形成簇。

網格單元的密度是單元中的點數除以單元的體積

 

 

子空間聚類:

去掉幾個屬性維度進行聚類

CLIQUE 算法:基於網格和先驗的方法(如果一批點在第k維密集,那它們在k-1維也密集)

1. 找到每個屬性對應的一維空間中的所有密集區間

2. K = 2 ,重復直到沒有候選密集 k 維單元格

        從密集 (k – 1) 維單元格生成所有候選密集 k 維單元格

        消除密度小於閾值的細胞

        K = K + 1

3. 通過對所有連續的密集單元進行聯合來查找簇。

.基於模型的聚類

GMM:

 

 

 

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM