【機器學習】EM算法詳細推導和講解 今天不太想學習,炒個冷飯,講講機器學習十大算法里有名的EM算法,文章里面有些個人理解,如有錯漏,還請讀者不吝賜教。 眾所周知,極大似然估計是一種應用很廣泛的參數估計方法。例如我手頭有一些東北人的身高的數據,又知道身高的概率模型是高斯分布,那么利用極大化 ...
今天不太想學習,炒個冷飯,講講機器學習十大算法里有名的EM算法,文章里面有些個人理解,如有錯漏,還請讀者不吝賜教。 眾所周知,極大似然估計是一種應用很廣泛的參數估計方法。例如我手頭有一些東北人的身高的數據,又知道身高的概率模型是高斯分布,那么利用極大化似然函數的方法可以估計出高斯分布的兩個參數,均值和方差。這個方法基本上所有概率課本上都會講,我這就不多說了,不清楚的請百度。 然而現在我面臨的是這 ...
2015-06-03 21:55 11 42254 推薦指數:
【機器學習】EM算法詳細推導和講解 今天不太想學習,炒個冷飯,講講機器學習十大算法里有名的EM算法,文章里面有些個人理解,如有錯漏,還請讀者不吝賜教。 眾所周知,極大似然估計是一種應用很廣泛的參數估計方法。例如我手頭有一些東北人的身高的數據,又知道身高的概率模型是高斯分布,那么利用極大化 ...
最大期望算法 EM算法的正式提出來自美國數學家Arthur Dempster、Nan Laird和Donald Rubin,其在1977年發表的研究對先前出現的作為特例的EM算法進行了總結並給出了標准算法的計算步驟,EM算法也由此被稱為Dempster-Laird-Rubin算法。1983年 ...
【機器學習】算法原理詳細推導與實現(二):邏輯回歸 在上一篇算法中,線性回歸實際上是 連續型 的結果,即 \(y\in R\) ,而邏輯回歸的 \(y\) 是離散型,只能取兩個值 \(y\in \{0,1\}\),這可以用來處理一些分類的問題。 logistic函數 我們可能會遇到一些分類 ...
【機器學習】算法原理詳細推導與實現(一):線性回歸 今天我們這里要講第一個有監督學習算法,他可以用於一個回歸任務,這個算法叫做 線性回歸 房價預測 假設存在如下 m 組房價數據: 面積(m^2) 價格(萬元) 82.35 ...
一、簡介 EM 的英文是 Expectation Maximization,所以 EM 算法也叫最大期望算法。 我們先看一個簡單的場景:假設你炒了一份菜,想要把它平均分到兩個碟子里,該怎么分? 很少有人用稱對菜進行稱重,再計算一半的分量進行平分。大部分人的方法是先分一部分到碟子 A 中 ...
上一篇開頭說過1983年,美國數學家吳建福(C.F. Jeff Wu)給出了EM算法在指數族分布以外的收斂性證明。 EM算法的收斂性只要我們能夠證明對數似然函數的值在迭代的過程中是增加的 即可: 證明: 一直我們的EM算法會極大化這個似然函數L, 問題得證. ...
極大似然估計 考慮一個高斯分布\(p(\mathbf{x}\mid{\theta})\),其中\(\theta=(\mu,\Sigma)\)。樣本集\(X=\{x_1,...,x_N\}\)中每個樣 ...
我講EM算法的大概流程主要三部分:需要的預備知識、EM算法詳解和對EM算法的改進。 一、EM算法的預備知識 1、極大似然估計 (1)舉例說明:經典問題——學生身高問題 我們需要調查我們學校的男生和女生的身高分布。 假設你在校園里隨便找了100個男生和100個女生。他們共200個人。將他 ...