貝葉斯估計和極大似然估計到底有何區別


個人理解:

最大似然估計:只是對似然的處理,概率乘積轉概率密度乘積,取對數轉加,求導得估計值;

貝葉斯估計:由先驗乘似然得后驗,

這個就是貝葉斯學習過程:在前一個訓練集合D^{n-1}的后驗概率p(\theta |D^{n-1})上,乘以新的測試樣本點x_n的似然估計,得到新的集合D^n的后驗概率p(\theta|D^n),這樣,相當於p(\theta |D^{n-1})成為了p(\theta|D^n)的先驗概率分布:

原文:https://blog.csdn.net/feilong_csdn/article/details/61633180

預熱知識必知

如何求類條件概率密度: 
我們知道貝葉斯決策中關鍵便在於知道后驗概率,那么問題便集中在求解類條件概率密度!那么如何求呢?答案便是:將類條件概率密度進行參數化。

最大似然估計和貝葉斯估計參數估計: 
鑒於類條件概率密度難求,我們將其進行參數化,這樣我們便只需要對參數進行求解就行了,問題難度將大大降低!比如:我們假設類條件概率密度p(x|w)是一個多元正態分布,那么我們就可以把問題從估計完全未知的概率密度p(x|w)轉化成估計參數:均值u、協方差ε

所以最大似然估計和貝葉斯估計都屬於參數化估計!……當然像KNN估計、Parzen窗這些就是非參數話估計啦!但是參數化估計也自然有它的缺點,下面會說的!

簡述二者最大的區別

若用兩個字高度概括二者的最大區別那就是:參數

最大似然估計和貝葉斯估計最大區別便在於估計的參數不同,最大似然估計要估計的參數θ被當作是固定形式的一個未知變量,然后我們結合真實數據通過最大化似然函數來求解這個固定形式的未知變量!

貝葉斯估計則是將參數視為是有某種已知先驗分布的隨機變量,意思便是這個參數他不是一個固定的未知數,而是符合一定先驗分布如:隨機變量θ符合正態分布等!那么在貝葉斯估計中除了類條件概率密度p(x|w)符合一定的先驗分布,參數θ也符合一定的先驗分布。我們通過貝葉斯規則將參數的先驗分布轉化成后驗分布進行求解!

同時在貝葉斯模型使用過程中,貝葉斯估計用的是后驗概率,而最大似然估計直接使用的是類條件概率密度。

下面會詳細分析最大似然估計和貝葉斯估計求解模型!

從其他方面談談二者的異同

在先驗概率能保證問題有解的情況下,最大似然估計和貝葉斯估計在訓練樣本趨近於無窮時得到的結果是一樣的!但是實際的模式識別問題中,訓練樣本總是有限的,我們應如何選擇使用哪種模型呢?下面簡單分析分析:

(1) 計算復雜度:就實現的復雜度來說,肯定是有限選擇最大似然估計,最大似然估計中只需要使用到簡單的微分運算即可,而在貝葉斯估計中則需要用到非常復雜的多重積分,不僅如此,貝葉斯估計相對來說也更難理解;

(2)准確性:當采用的樣本數據很有限時,貝葉斯估計誤差更小,畢竟在理論上,貝葉斯估計有很強的理論和算法基礎。

參數化估計的缺點: 
貝葉斯估計和最大似然估計都是屬於參數化估計,那么二者存在着一個共同的缺點:參數化估計雖然使得類條件概率密度變得相對簡單,但估計結果的准確性嚴重依賴於所假設的概率分布形式是否符合潛在的真實數據分布。在現實應用中,與做出能較好的接近潛在真實分布中的假設,往往需要一定程度上利用關於應用任務本身的經驗知識,否則若僅憑“猜測”來假設概率分布形式,很可能產生誤導性的結果!所以沒有什么算法是十全十美的啦!

下面便推導一下最大似然估計和貝葉斯估計所使用的模型,最大似然簡單些,貝葉斯估計就比較復雜了!

最大似然估計模型推導

假設樣本集D={x1 、x2 、…、xn},假設樣本之間都是相對獨立的,注意這個假設很重要!於是便有: 

這里寫圖片描述


所以假設似然函數為: 

這里寫圖片描述


接下來我們求參的准則便是如名字一樣最大化似然函數嘍: 

這里寫圖片描述


下面有一個優化,專業名詞為拉布拉斯修正

 

簡單說:就是防止先驗概率為0,那么上面的L(θ|D)整個式子便都成0 了,那肯定是不行的啊,不能因為一個數據誤差影響了整個數據的使用。同時那么多先驗概率相乘,可能出現下溢出。所以引入拉普拉斯修正,也就是取對數ln,想必大家在數學中都用過這種方法的。

所以做出下面變換: 

這里寫圖片描述

 

所以最大化的目標便是: 

這里寫圖片描述

 

求解上面問題便不多說了,使用數學中的微分知識便可: 

這里寫圖片描述


然后使得偏導數為0: 

 

自此便求出了參數θ,然后便得到了類條件概率密度,便可進行判別等接下來的工作了。

下面講解貝葉斯模型推導,略微復雜些,下伙伴們仔細看啊!

貝葉斯估計模型推導

先說一句,貝葉斯估計最終也是為了得出后驗概率。所以貝葉斯最終所要的得到推導的是: 

(1)


正如上面所說我們便是要參數的先驗分布通過貝葉斯規則轉化成后驗概率,也就是上面這個公式,接下來我們一起看看如何推導出上面后驗概率的公式通過參數的先驗概率。

 

上式中有: 

這里寫圖片描述


帶入后驗概率的式子可得: 

這里寫圖片描述

 

大家注意啦!!!這里也有個重要的假設,那就是樣本之間是相互獨立的,同時類也是相互獨立的。所以有如下假設: 

這里寫圖片描述


同時由於類之間相互獨立,所以我們不用區分類了,便有: 

這里寫圖片描述

 

這里給大家順一下思路,所以我們要求后驗概率便是要求出P(x|D)便可: 
下面說明P(x|D)的推導: 

這里寫圖片描述

 

正如我們前面所說上式中p(x| θ),我們假設它是一個已知的滿足一定先驗分布的,我們現在便是要知道: 

這里寫圖片描述

 

下面給出其推導過程: 

這里寫圖片描述

 

對於上式中的P(D|θ),還記得上面說的很重要的樣本之間是獨立的嗎,所以和最大似然函數類似有: 

這里寫圖片描述


因此最終我們便可以求得P(x|D): 

這里寫圖片描述

 

這樣我們將P(x|D)待會后驗概率的式子便可求出后驗概率了,所以我們完成了上面的說法,便是將參數θ 服從的先驗概率分布轉化成了后驗概率分布了。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM