極大似然估計與EM算法:
詳解EM算法與混合高斯模型(Gaussian mixture model, GMM)_林立民愛洗澡-CSDN博客 https://blog.csdn.net/lin_limin/article/details/81048411
GMM(高斯混合模型)以及簡單實現_zjm750617105的專欄-CSDN博客 https://blog.csdn.net/zjm750617105/article/details/5243029
成分數的選擇
在一個GMM里,BIC(Bayesian Information Criteria)准則是一種有效的成分數確定方法。注意,如果使用一個Variational Bayesian Gaussian mixture
, 可以避免指定GMM的成分數。
AIC准則
AIC准則是由日本統計學家Akaike與1973年提出的,全稱是最小化信息量准則(Akaike Information Criterion)。它是擬合精度和參數個數的加權函數: AIC=2(模型參數的個數)-2ln(模型的極大似然函數)
BIC准則
AIC為模型選擇提供了有效的規則,但也有不足之處。當樣本容量很大時,在AIC准則中擬合誤差提供的信息就要受到樣本容量的放大,而參數個數的懲罰因子卻和樣本容量沒關系(一直是2),因此當樣本容量很大時,使用AIC准則選擇的模型不收斂與真實模型,它通常比真實模型所含的未知參數個數要多。BIC(Bayesian InformationCriterion)貝葉斯信息准則是Schwartz在1978年根據Bayes理論提出的判別准則,稱為SBC准則(也稱BIC),彌補了AIC的不足。SBC的定義為: BIC = ln(n)(模型中參數的個數) - 2ln(模型的極大似然函數值)
【sklearn第十九講】高斯混合模型_python_wong2016的博客-CSDN博客 https://blog.csdn.net/wong2016/article/details/81057023
二維高斯分布(Two-dimensional Gaussian distribution)的參數分析_林立民愛洗澡-CSDN博客 https://blog.csdn.net/lin_limin/article/details/81024228
公式推導:
高斯混合模型(GMM) - 知乎 https://zhuanlan.zhihu.com/p/30483076
高斯混合模型詳細推導 - ~寧靜致遠~ - 博客園 https://www.cnblogs.com/ningjing213/p/10392175.html
高斯混合模型(GMM) - Mind Puzzle - 博客園 https://www.cnblogs.com/mindpuzzle/archive/2013/04/24/3036447.html
高斯混合模型 - 一抹煙霞 - 博客園 https://www.cnblogs.com/long5683/p/11402875.html
一文詳解高斯混合模型原理 - 知乎 https://zhuanlan.zhihu.com/p/31103654
高斯混合模型以及EM算法的求解 - 簡書 https://www.jianshu.com/p/e78152cb9332
【機器學習基礎】EM算法_人工智能_Tuzi_bo的專欄-CSDN博客 https://blog.csdn.net/u010834867/article/details/90762296
可能相關:
GMR.m 免費開源代碼閱讀 開發,分享 - CodeForge.cn http://www.codeforge.cn/read/245438/GMR.m__html