深度多視圖子空間聚類
作者:凱魯嘎吉 - 博客園 http://www.cnblogs.com/kailugaji/
1. Deep Multi-view Subspace Clustering with Unified and Discriminative Learning
這部分是對Deep Multi-view Subspace Clustering with Unified and Discriminative Learning這篇文章的展開與敘述。與其他多視圖聚類方法相比,深度多視圖子空間聚類取得了良好的性能。然而,現有的深度多視圖子空間聚類只考慮所有視圖的全局結構,忽略了每個視圖之間的局部幾何結構。此外,他們不能學習不同視圖的不同簇的判別特征,即簇間差異。為了解決這些問題,本文提出了一種基於統一判別學習的深度多視圖子空間聚類算法(DMSC-UDL)。DMSCUDL將全局結構和局部結構與自表示層相結合。全局結構和局部結構相互促進,使同一類樣本之間的距離變小。為了在不同視圖的不同簇中進一步生成樣本,DMSC-UDL在不同視圖之間使用了判別約束。這樣,DMSC-UDL使得同一簇的樣本具有較大的權值,而不同簇的樣本具有較小的權值。因此,它可以學習一個更好的多視圖聚類共享連接矩陣。大量的實驗結果表明,本文提出的多視圖聚類方法在性能上優於現有的幾種多視圖聚類方法。
2. Multi-view Subspace Clustering Networks with Local and Global Graph Information
這部分是對Multi-view Subspace Clustering Networks with Local and Global Graph Information這篇文章的展開與敘述。這項研究調查了多視圖子空間聚類的問題,其目的是探索從不同領域或測量收集的數據的底層分組結構。由於數據在許多實際應用中並不總是符合線性子空間模型,因此大多數現有的基於淺層線性子空間模型的多視圖子空間聚類方法在實踐中可能會失敗。此外,在大多數多視圖子空間聚類方法中,通常會忽略多視圖數據的底層圖信息。針對上述局限性,本文提出了一種新穎的具有局部和全局圖信息的多視圖子空間聚類網絡,稱為MSCNLG。具體而言,在多個視圖上使用自編碼器網絡以實現適合於線性假設的潛在平滑表示。同時,通過將融合的多視圖圖信息集成到自表示層中,提出的MSCNLG獲得了共享的多視圖子空間共享表示,可通過采用標准的譜聚類算法獲得聚類結果。作為一種端到端的可訓練框架,該方法充分研究了多視圖的有價值信息。在六個基准數據集上進行的全面實驗驗證了所提出的MSCNLG的有效性和優越性。
3. 參考文獻
[1] Q. Wang, J. Cheng, Q. Gao, G. Zhao and L. Jiao, "Deep Multi-view Subspace Clustering with Unified and Discriminative Learning," IEEE Transactions on Multimedia, doi: 10.1109/TMM.2020.3025666.
[2] Zhenga Q, J Zhua, Ma Y, et al, "Multi-view Subspace Clustering Networks with Local and Global Graph Information," 2021, Neurocomputing.