朴素貝葉斯法(一)——貝葉斯定理


最為廣泛的兩種分類模型是決策樹模型(Decision Tree Model)和朴素貝葉斯模型(Naive Bayesian ModelNBC)。

貝葉斯定理250多年前發明的算法,在信息領域內有着無與倫比的地位。貝葉斯分類是一系列分類算法的總稱,這類算法均以貝葉斯定理為基礎,故統稱為貝葉斯分類。朴素貝葉斯算法(Naive Bayesian) 是其中應用最為廣泛的分類算法之一。

 

貝葉斯定理

描述

貝葉斯定理是關於隨機事件AB條件概率的一則定理。

clip_image001

在貝葉斯定理中,每個名詞都有約定俗成的名稱:

按這些術語,Bayes定理可表述為:

后驗概率 = (相似度*先驗概率) / 標准化常量

P(B|A)稱為“可能性函數,這是個調整因子,使得預估計概率更接近真實概率。

所以,條件概率可以理解為式子:

       后驗概率 = 先驗概率 * 調整因子

這就是貝葉斯推斷的含義:我們先預測一個先驗概率,然后加入實驗結果,看這個實驗到底是增強還是削弱了先驗概率,由此得到更加真實的后驗概率

在這里,如果可能性函數”P(B|A)>1,意味着先驗概率被增強,事件A發生的可能性增大;如果可能性函數”P(B|A)=1,意味着事件B無助於判斷事件A的可能性;如果可能性函數”P(B|A)<1,意味着先驗概率被減弱,事件A發生的可能性變小。

推導

根據條件概率的定義。在事件B發生的條件下事件A發生的概率是

clip_image002

同樣地,在事件A發生的條件下事件B發生的概率

clip_image003

整理與合並這兩個方程式,我們可以找到

clip_image004

這個引理有時稱作概率乘法規則。上式兩邊同除以P(B),若P(B)是非零的,我們可以得到貝葉斯定理:

clip_image005

貝葉斯定理通常可以再寫成下面的形式:

clip_image006

其中ACA補集。故上式亦可寫成:

clip_image007

在更一般化的情況,假設{Ai}是事件集合里的部分集合,對於任意的Ai,貝葉斯定理可用下式表示:

clip_image008

案例

clip_image009clip_image010clip_image011clip_image012clip_image013clip_image014                   30                                                                                                                                               20     

clip_image015clip_image016                   10                                                                                                                                               20

                                                                                                                                                       

 

暗箱操作,現在從其中一個箱子中得到一個綠球,問是從黑箱中取得的概率是?

分析:假定“從黑箱中取球為事件A,“從紅箱中取球為事件B,“取到綠球為事件M.

則問題為求P(A|M)

由貝葉斯定理得:P(A|M) = P(A) * P(M|A) / P(M)

= P(A) * P(M|A) /[ P(M|A)*P(A) + P(M|B) *P(B)]

其中,P(A)=P(B) = 1/2, P(M|A) = 3/4, P(M|B) = 1/2

結果為0.6,表明,來自黑箱的概率為0.6。也就是得到綠球后,事件A(取自於黑箱)的可能性增強了。

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM