R語言-混合型數據聚類


利用聚類分析,我們可以很容易地看清數據集中樣本的分布情況。以往介紹聚類分析的文章中通常只介紹如何處理連續型變量,這些文字並沒有過多地介紹如何處理混合型數據(如同時包含連續型變量、名義型變量和順序型變量的數據)。本文將利用 Gower 距離、PAM(partitioning around medoids)算法和輪廓系數來介紹如何對混合型數據做聚類分析。

---------------------------------------------------------------------------------------------------

本文主要分為三個部分

  • 距離計算
  • 聚類算法的選擇
  • 聚類個數的選擇

為了介紹方便,本文直接使用 ISLR 包中的 College 數據集。該數據集包含了自 1995 年以來美國大學的 777 條數據,其中主要有以下幾個變量:

  • 連續型變量
  1. 錄取率
  2. 學費
  3. 新生數量
  • 分類型變量
  1. 公立或私立院校
  2. 是否為高水平院校,即所有新生中畢業於排名前 10% 高中的新生數量占比是否大於 50%

本文中涉及到的R包有:

 1 In [3]:
 2 
 3 set.seed(1680) # 設置隨機種子,使得本文結果具有可重現性
 4 
 5 library(dplyr)
 6 library(ISLR)
 7 library(cluster)
 8 library(Rtsne)
 9 library(ggplot2)
10 Attaching package: ‘dplyr’
11 
12 The following objects are masked from ‘package:stats’:
13 
14     filter, lag
15 
16 The following objects are masked from ‘package:base’:
17 
18     intersect, setdiff, setequal, union

構建聚類模型之前,我們需要做一些數據清洗工作:

  • 錄取率等於錄取人數除以總申請人數
  • 判斷某個學校是否為高水平院校,需要根據該學校的所有新生中畢業於排名前 10% 高中的新生數量占比是否大於 50% 來決定
 1 In [5]:
 2 
 3 college_clean <- College %>%
 4   mutate(name = row.names(.),
 5          accept_rate = Accept/Apps,
 6          isElite = cut(Top10perc,
 7                        breaks = c(0, 50, 100),
 8                        labels = c("Not Elite", "Elite"),
 9                        include.lowest = TRUE)) %>%
10   mutate(isElite = factor(isElite)) %>%
11   select(name, accept_rate, Outstate, Enroll,
12          Grad.Rate, Private, isElite)
13 
14 glimpse(college_clean)
15 Observations: 777
16 Variables: 7
17 $ name        (chr) "Abilene Christian University", "Adelphi University", "...
18 $ accept_rate (dbl) 0.7421687, 0.8801464, 0.7682073, 0.8369305, 0.7564767, ...
19 $ Outstate    (dbl) 7440, 12280, 11250, 12960, 7560, 13500, 13290, 13868, 1...
20 $ Enroll      (dbl) 721, 512, 336, 137, 55, 158, 103, 489, 227, 172, 472, 4...
21 $ Grad.Rate   (dbl) 60, 56, 54, 59, 15, 55, 63, 73, 80, 52, 73, 76, 74, 68,...
22 $ Private     (fctr) Yes, Yes, Yes, Yes, Yes, Yes, Yes, Yes, Yes, Yes, Yes,...
23 $ isElite     (fctr) Not Elite, Not Elite, Not Elite, Elite, Not Elite, Not...

距離計算

聚類分析的第一步是定義樣本之間距離的度量方法,最常用的距離度量方法是歐式距離。然而歐氏距離只適用於連續型變量,所以本文將采用另外一種距離度量方法—— Gower 距離。

1Gower 距離

Gower 距離的定義非常簡單。首先每個類型的變量都有特殊的距離度量方法,而且該方法會將變量標准化到[0,1]之間。接下來,利用加權線性組合的方法來計算最終的距離矩陣。不同類型變量的計算方法如下所示:

  • 連續型變量:利用歸一化的曼哈頓距離
  • 順序型變量:首先將變量按順序排列,然后利用經過特殊調整的曼哈頓距離
  • 名義型變量:首先將包含 k 個類別的變量轉換成 k 個 0-1 變量,然后利用 Dice 系數做進一步的計算
    • 優點:通俗易懂且計算方便
    • 缺點:非常容易受無標准化的連續型變量異常值影響,所以數據轉換過程必不可少;該方法需要耗費較大的內存

利用 daisy 函數,我們只需要一行代碼就可以計算出 Gower 距離。需要注意的是,由於新生入學人數是右偏變量,我們需要對其做對數轉換。daisy函數內置了對數轉換的功能,你可以調用幫助文檔來獲取更多的參數說明。

 1 In [6]:
 2 
 3 # Remove college name before clustering
 4 
 5 gower_dist <- daisy(college_clean[, -1],
 6                     metric = "gower",
 7                     type = list(logratio = 3))
 8 
 9 # Check attributes to ensure the correct methods are being used
10 # (I = interval, N = nominal)
11 # Note that despite logratio being called, 
12 # the type remains coded as "I"
13 
14 summary(gower_dist)
15 Out[6]:
16 
17 301476 dissimilarities, summarized :
18      Min.   1st Qu.    Median      Mean   3rd Qu.      Max. 
19 0.0018601 0.1034400 0.2358700 0.2314500 0.3271400 0.7773500 
20 Metric :  mixed ;  Types = I, I, I, I, N, N 
21 Number of objects : 777

此外,我們可以通過觀察最相似和最不相似的樣本來判斷該度量方法的合理性。本案例中,聖托馬斯大學和約翰卡羅爾大學最相似,而俄克拉荷馬科技和藝術大學和哈佛大學差異最大。

 1 In [7]:
 2 
 3 gower_mat <- as.matrix(gower_dist)
 4 
 5 # Output most similar pair
 6 
 7 college_clean[
 8   which(gower_mat == min(gower_mat[gower_mat != min(gower_mat)]),
 9         arr.ind = TRUE)[1, ], ]
10 Out[7]:
11 
12      name    accept_rate    Outstate    Enroll    Grad.Rate    Private    isElite
13 682    University of St. Thomas MN    0.8784638    11712    828    89    Yes    Not Elite
14 284    John Carroll University    0.8711276    11700    820    89    Yes    Not Elite
15 In [8]:
16 
17 # Output most dissimilar pair
18 
19 college_clean[
20   which(gower_mat == max(gower_mat[gower_mat != max(gower_mat)]),
21         arr.ind = TRUE)[1, ], ]
22 Out[8]:
23 
24      name    accept_rate    Outstate    Enroll    Grad.Rate    Private    isElite
25 673    University of Sci. and Arts of Oklahoma    0.9824561    3687    208    43    No    Not Elite
26 251    Harvard University    0.1561486    18485    1606    100    Yes    Elite

聚類算法的選擇

現在我們已經計算好樣本間的距離矩陣,接下來需要選擇一個合適的聚類算法,本文采用 PAM(partioniong around medoids)算法來構建模型,PAM 算法的主要步驟:

  1. 隨機選擇 k 個數據點,並將其設為簇中心點
  2. 遍歷所有樣本點,並將樣本點歸入最近的簇中
  3. 對每個簇而言,找出與簇內其他點距離之和最小的點,並將其設為新的簇中心點
  4. 重復第2步,直到收斂

該算法和 K-means 算法非常相似。事實上,除了中心點的計算方法不同外,其他步驟都完全一致 。

  • 優點:簡單易懂且不易受異常值所影響
  • 缺點:算法時間復雜度為 O(n2)

聚類個數的選擇

我們將利用輪廓系數來確定最佳的聚類個數,輪廓系數是一個用於衡量聚類離散度的內部指標,該指標的取值范圍是[-1,1],其數值越大越好。通過比較不同聚類個數下輪廓系數的大小,我們可以看出當聚類個數為 3 時,聚類效果最好。

 1 In [9]:
 2 
 3 # Calculate silhouette width for many k using PAM
 4 
 5 sil_width <- c(NA)
 6 
 7 for(i in 2:10){
 8   
 9   pam_fit <- pam(gower_dist,
10                  diss = TRUE,
11                  k = i)
12   
13   sil_width[i] <- pam_fit$silinfo$avg.width
14   
15 }
16 
17 # Plot sihouette width (higher is better)
18 
19 plot(1:10, sil_width,
20      xlab = "Number of clusters",
21      ylab = "Silhouette Width")
22 lines(1:10, sil_width)

聚類結果解釋

1描述統計量

聚類完畢后,我們可以調用 summary 函數來查看每個簇的匯總信息。從這些匯總信息中我們可以看出:簇1主要是中等學費且學生規模較小的私立非頂尖院校,簇2主要是高收費、低錄取率且高畢業率的私立頂尖院校,而簇3則是低學費、低畢業率且學生規模較大的公立非頂尖院校。

 1 In [18]:
 2 
 3 pam_fit <- pam(gower_dist, diss = TRUE, k = 3)
 4 
 5 pam_results <- college_clean %>%
 6   dplyr::select(-name) %>%
 7   mutate(cluster = pam_fit$clustering) %>%
 8   group_by(cluster) %>%
 9   do(the_summary = summary(.))
10 
11 print(pam_results$the_summary)
12 [[1]]
13   accept_rate        Outstate         Enroll         Grad.Rate      Private  
14  Min.   :0.3283   Min.   : 2340   Min.   :  35.0   Min.   : 15.00   No :  0  
15  1st Qu.:0.7225   1st Qu.: 8842   1st Qu.: 194.8   1st Qu.: 56.00   Yes:500  
16  Median :0.8004   Median :10905   Median : 308.0   Median : 67.50            
17  Mean   :0.7820   Mean   :11200   Mean   : 418.6   Mean   : 66.97            
18  3rd Qu.:0.8581   3rd Qu.:13240   3rd Qu.: 484.8   3rd Qu.: 78.25            
19  Max.   :1.0000   Max.   :21700   Max.   :4615.0   Max.   :118.00            
20       isElite       cluster 
21  Not Elite:500   Min.   :1  
22  Elite    :  0   1st Qu.:1  
23                  Median :1  
24                  Mean   :1  
25                  3rd Qu.:1  
26                  Max.   :1  
27 
28 [[2]]
29   accept_rate        Outstate         Enroll         Grad.Rate      Private 
30  Min.   :0.1545   Min.   : 5224   Min.   : 137.0   Min.   : 54.00   No : 4  
31  1st Qu.:0.4135   1st Qu.:13850   1st Qu.: 391.0   1st Qu.: 77.00   Yes:65  
32  Median :0.5329   Median :17238   Median : 601.0   Median : 89.00           
33  Mean   :0.5392   Mean   :16225   Mean   : 882.5   Mean   : 84.78           
34  3rd Qu.:0.6988   3rd Qu.:18590   3rd Qu.:1191.0   3rd Qu.: 94.00           
35  Max.   :0.9605   Max.   :20100   Max.   :4893.0   Max.   :100.00           
36       isElite      cluster 
37  Not Elite: 0   Min.   :2  
38  Elite    :69   1st Qu.:2  
39                 Median :2  
40                 Mean   :2  
41                 3rd Qu.:2  
42                 Max.   :2  
43 
44 [[3]]
45   accept_rate        Outstate         Enroll       Grad.Rate      Private  
46  Min.   :0.3746   Min.   : 2580   Min.   : 153   Min.   : 10.00   No :208  
47  1st Qu.:0.6423   1st Qu.: 5295   1st Qu.: 694   1st Qu.: 46.00   Yes:  0  
48  Median :0.7458   Median : 6598   Median :1302   Median : 54.50            
49  Mean   :0.7315   Mean   : 6698   Mean   :1615   Mean   : 55.42            
50  3rd Qu.:0.8368   3rd Qu.: 7748   3rd Qu.:2184   3rd Qu.: 65.00            
51  Max.   :1.0000   Max.   :15516   Max.   :6392   Max.   :100.00            
52       isElite       cluster 
53  Not Elite:199   Min.   :3  
54  Elite    :  9   1st Qu.:3  
55                  Median :3  
56                  Mean   :3  
57                  3rd Qu.:3  
58                  Max.   :3  

PAM 算法的另一個優點是各個簇的中心點是實際的樣本點。從聚類結果中我們可以看出,聖弗朗西斯大學是簇1 的中心點,巴朗德學院是簇2 的中心點,而密歇根州州立大學河谷大學是簇3 的中心點。

1 In [19]:
2 
3 college_clean[pam_fit$medoids, ]
4 Out[19]:
5 
6      name    accept_rate    Outstate    Enroll    Grad.Rate    Private    isElite
7 492    Saint Francis College    0.7877629    10880    284    69    Yes    Not Elite
8 38    Barnard College    0.5616987    17926    531    91    Yes    Elite
9 234    Grand Valley State University    0.7525653    6108    1561    57    No    Not Elite

2可視化方法

t-SNE 是一種降維方法,它可以在保留聚類結構的前提下,將多維信息壓縮到二維或三維空間中。借助t-SNE我們可以將 PAM 算法的聚類結果繪制出來,有趣的是私立頂尖院校和公立非頂尖院校這兩個簇中間存在一個小聚類簇。

 1 In [22]:
 2 
 3 tsne_obj <- Rtsne(gower_dist, is_distance = TRUE)
 4 
 5 tsne_data <- tsne_obj$Y %>%
 6   data.frame() %>%
 7   setNames(c("X", "Y")) %>%
 8   mutate(cluster = factor(pam_fit$clustering),
 9          name = college_clean$name)
10 
11 ggplot(aes(x = X, y = Y), data = tsne_data) +
12   geom_point(aes(color = cluster))

進一步探究可以發現,這一小簇主要包含一些競爭力較強的公立院校,比如弗吉尼亞大學和加州大學伯克利分校。雖然無法通過輪廓系數指標來證明多分一類是合理的,但是這 13 所院校的確顯著不同於其他三個簇的院校。

 1 In [25]:
 2 
 3 tsne_data %>%
 4   filter(X > 15 & X < 25,
 5          Y > -15 & Y < -10) %>%
 6   left_join(college_clean, by = "name") %>%
 7   collect %>%
 8   .[["name"]]
 9 Out[25]:
10 
11 'Kansas State University'
12  
13 'North Carolina State University at Raleigh'
14 'Pennsylvania State Univ. Main Campus'
15  
16 'SUNY at Buffalo'
17 'Texas A&M Univ. at College Station'
18  
19 'University of Georgia'
20  
21 'University of Kansas'
22 'University of Maryland at College Park'
23  
24 'University of Minnesota Twin Cities'
25 'University of Missouri at Columbia'
26  
27 'University of Tennessee at Knoxville'
28 'University of Texas at Austin'

 

轉自:http://mp.weixin.qq.com/s?__biz=MzA5NDQ3MDI4NA==&mid=2658610279&idx=1&sn=c913e162de03343a4f89410c18e503a9&scene=1&srcid=09093EVj3DjQk3Jr0UoGqBNT#rd

原文鏈接:https://dpmartin42.github.io/blogposts/r/cluster-mixed-types

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM