混合高斯模型——學習筆記


極大似然估計與EM算法:

詳解EM算法與混合高斯模型(Gaussian mixture model, GMM)_林立民愛洗澡-CSDN博客 https://blog.csdn.net/lin_limin/article/details/81048411

 

 

 GMM(高斯混合模型)以及簡單實現_zjm750617105的專欄-CSDN博客 https://blog.csdn.net/zjm750617105/article/details/5243029

成分數的選擇

在一個GMM里,BIC(Bayesian Information Criteria)准則是一種有效的成分數確定方法。注意,如果使用一個Variational Bayesian Gaussian mixture, 可以避免指定GMM的成分數。

AIC准則

AIC准則是由日本統計學家Akaike與1973年提出的,全稱是最小化信息量准則(Akaike Information Criterion)。它是擬合精度和參數個數的加權函數: 
AIC=2(模型參數的個數)-2ln(模型的極大似然函數)

BIC准則

AIC為模型選擇提供了有效的規則,但也有不足之處。當樣本容量很大時,在AIC准則中擬合誤差提供的信息就要受到樣本容量的放大,而參數個數的懲罰因子卻和樣本容量沒關系(一直是2),因此當樣本容量很大時,使用AIC准則選擇的模型不收斂與真實模型,它通常比真實模型所含的未知參數個數要多。BIC(Bayesian InformationCriterion)貝葉斯信息准則是Schwartz在1978年根據Bayes理論提出的判別准則,稱為SBC准則(也稱BIC),彌補了AIC的不足。SBC的定義為: 
BIC = ln(n)(模型中參數的個數) - 2ln(模型的極大似然函數值)

【sklearn第十九講】高斯混合模型_python_wong2016的博客-CSDN博客 https://blog.csdn.net/wong2016/article/details/81057023

二維高斯分布(Two-dimensional Gaussian distribution)的參數分析_林立民愛洗澡-CSDN博客 https://blog.csdn.net/lin_limin/article/details/81024228

 

公式推導:

高斯混合模型(GMM) - 知乎 https://zhuanlan.zhihu.com/p/30483076

高斯混合模型詳細推導 - ~寧靜致遠~ - 博客園 https://www.cnblogs.com/ningjing213/p/10392175.html

高斯混合模型(GMM) - Mind Puzzle - 博客園 https://www.cnblogs.com/mindpuzzle/archive/2013/04/24/3036447.html

高斯混合模型 - 一抹煙霞 - 博客園 https://www.cnblogs.com/long5683/p/11402875.html

 

一文詳解高斯混合模型原理 - 知乎 https://zhuanlan.zhihu.com/p/31103654

高斯混合模型以及EM算法的求解 - 簡書 https://www.jianshu.com/p/e78152cb9332

【機器學習基礎】EM算法_人工智能_Tuzi_bo的專欄-CSDN博客 https://blog.csdn.net/u010834867/article/details/90762296

 

可能相關:

GMR.m 免費開源代碼閱讀 開發,分享 - CodeForge.cn http://www.codeforge.cn/read/245438/GMR.m__html

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM