公號:碼農充電站pro
主頁:https://codeshellme.github.io
貝葉斯原理是英國數學家托馬斯·貝葉斯於18 世紀提出的,當我們不能直接計算一件事情(A)發生的可能性大小的時候,可以間接的計算與這件事情有關的事情(X,Y,Z)發生的可能性大小,從而間接判斷事情(A)發生的可能性大小。

在介紹貝葉斯原理之前,先介紹幾個與概率相關的概念。
1,概率相關概念
概率用於描述一件事情發生的可能性大小,用數學符號P(x) 表示,x 表示隨機變量,P(x) 表示x 的概率。
隨機變量根據變量取值是否連續,可分為離散型隨機變量和連續型隨機變量。
聯合概率由多個隨機變量共同決定,用P(x, y) 表示,含義為“事件x 與事件y 同時發生的概率”。
條件概率也是由多個隨機變量共同決定,用P(x|y) 表示,含義為“在事件y 發生的前提下,事件x 發生的概率。”
邊緣概率:從 P(x, y) 推導出 P(x),從而忽略 y 變量。
- 對於離散型隨機變量,通過聯合概率
P(x, y)在y上求和, 可得到P(x),這里的P(x)就是邊緣概率。 - 對於連續型隨機變量,通過聯合概率
P(x, y)在y上求積分, 可得到P(x),這里的P(x)就是邊緣概率。
概率分布:將隨機變量所有可能出現的值,及其對應的概率都展現出來,就能得到這個變量的概率分布,概率分布分為兩種,分別是離散型和連續型。
常見的離散型數據分布模型有:
- 伯努利分布:表示單個隨機變量的分布,且該變量的取值只有兩個,0 或 1。例如拋硬幣(不考慮硬幣直立的情況)的概率分布就是伯努利分布。數學公式如下:
- P(x = 0) = 1 - λ
- P(x = 1) = λ
- 多項式分布:也叫分類分布,描述了一個具有 k 個不同狀態的單個隨機變量。這里的 k,是有限的數值,如果 k 為 2,那就變成了伯努利分布。
- P(x = k) = λ
- 二項式分布
- 泊松分布
常見的連續型數據分布模型有:
- 正態分布,也叫高斯分布,是最重要的一種。
- 均勻分布
- 指數分布
- 拉普拉斯分布
正態分布的數學公式為:

正態分布的分布圖為:

正態分布還可分為:
- 一元正態分布:此時 μ為 0,σ為 1。
- 多元正態分布。
數學期望,如果把“每次隨機結果的出現概率”看做權重,那么期望就是所有結果的加權平均值。
方差表示的是隨機變量的取值與其數學期望的偏離程度,方差越小意味着偏離程度越小,方差越大意味着偏離程度越大。
概率論研究的就是這些概率之間的轉化關系。
2,貝葉斯定理
貝葉斯公式如下:

含義:
- 等號右邊分子部分,
P(Bi)為先驗概率,P(A|Bi)為條件概率。 - 等號右邊整個分母部分為邊緣概率。
- 等號左邊
P(Bi|A)為后驗概率,由先驗概率,條件概率,邊緣概率計算得出。
貝葉斯定理可用於分類問題,將其用在分類問題中時,可將上面的公式簡化為:

其中:
- c 表示一個分類,f 表示屬性值。
- P(c|f) 表示在待分類樣本中,出現屬性值 f 時,樣本屬於類別 c 的概率。
- P(f|c) 是根據訓練樣本數據,進行統計得到的,分類 c 中出現屬性 f 的概率。
- P(c ) 是分類 c 在訓練數據中出現的概率。
- P(f) 是屬性 f 在訓練樣本中出現的概率。
這就意味着,當我們知道一些屬性特征值時,根據這個公式,就可以計算出所屬分類的概率,最終所屬哪個分類的概率最大,就划分為哪個分類,這就完成了一個分類問題。
貝葉斯推導
來看下貝葉斯公式是如何推導出來的。
如下圖兩個橢圓,左邊為C,右邊為F。

現在讓兩個橢圓產生交集:

根據上圖可知:在事件F 發生的條件下,事件C 發生的概率就是P(C ∩ F) / P(F),即:
P(C | F) = P(C ∩ F) / P(F)
可得到:
P(C ∩ F) = P(C | F) * P(F)
同理可得:
P(C ∩ F) = P(F | C) * P(C)
所以:
P(C ∩ F) = P(C | F) * P(F) = P(F | C) * P(C)P(C | F) = P(F | C) * P(C) / P(F)
3,朴素貝葉斯
假設我們現在有一個數據集,要使用貝葉斯定理,進行分類。特征有兩個:f1,f2。現在要對數據F 進行分類,那我們需要求解:
P(c|F):表示數據F屬於分類c的概率。
因為特征有 f1 與 f2,那么:
P(c|F) = P(c|(f1,f2))
對於分類問題,特征往往不止一個。如果特征之間相互影響,也就是f1 與f2 之間相互影響,那么P(c|(f1,f2)) 就不容易求解。
朴素貝葉斯在貝葉斯的基礎上做了一個簡單粗暴的假設,它假設多個特征之間互不影響,相互獨立。
朴素的意思就是純朴,簡單。
用數學公式表示就是:
P(A, B) = P(A) * P(B)
實際上就是大學概率論中所講的事件獨立性,即事件A 與事件B 的發生互不干擾,相互獨立。
那么,根據朴素貝葉斯,P(c|F) 的求解過程如下:

假設我們現在要分類的數據有兩類:c1 和 c2。
那么對於數據F 的分類問題,我們就需要求解兩個概率:P(c1|F) 和P(c2|F):
- 如果
P(c1|F) > P(c2|F),那么F屬於c1類。 - 如果
P(c1|F) < P(c2|F),那么F屬於c2類。
根據貝葉斯原理,我們可以得到:

對於分類問題,我們的最終目的是分類,而不是真正的求解出P(c1|F) 和 P(c2|F) 的確切數值。
根據上面的公式,我們可以看到,等號右邊的分母部分都是P(F):

所以我們只需要求出P(F|c1) × P(c1) 和 P(F|c2) × P(c2),就可以知道P(c1|F) 和 P(c2|F) 哪個大了。
所以對於P(c|F) 可以進一步簡化:

4,處理分類問題的一般步驟
用朴素貝葉斯原理,處理一個分類問題,一般要經過以下幾個步驟:
- 准備階段:
- 獲取數據集。
- 分析數據,確定特征屬性,並得到訓練樣本。
- 訓練階段:
- 計算每個類別概率
P(Ci)。 - 對每個特征屬性,計算每個分類的條件概率
P(Fj|Ci)。 Ci代表所有的類別。Fj代表所有的特征。
- 計算每個類別概率
- 預測階段:
- 給定一個數據,計算該數據所屬每個分類的概率
P(Fj|Ci) * P(Ci)。 - 最終那個分類的概率大,數據就屬於哪個分類。
- 給定一個數據,計算該數據所屬每個分類的概率
5,用朴素貝葉斯分類
接下來我們來處理一個實際的分類問題,我們處理的是離散型數據。
5.1,准備數據集
我們的數據集如下:

該數據集的特征集有身高,體重和鞋碼,目標集為性別。
我們的目的是訓練一個模型,該模型可以根據身高,體重和鞋碼來預測所屬的性別。
我們給定一個特征:
- 身高 = 高,用
F1表示。 - 體重 = 中,用
F2表示。 - 鞋碼 = 中,用
F3表示。
要求這個特征是男還是女?(用C1 表示男,C2 表示女)也就是要求P(C1|F) 大,還是P(C2|F) 大?
# 根據朴素貝葉斯推導
P(C1|F)
=> P(C1|(F1,F2,F3))
=> P(C1|F1) * P(C1|F2) * P(C1|F3)
=> [P(F1|C1) * P(C1)] * [P(F2|C1) * P(C1)] * [P(F3|C1) * P(C1)]
P(C2|F)
=> P(C2|(F1,F2,F3))
=> P(C2|F1) * P(C2|F2) * P(C2|F3)
=> [P(F1|C2) * P(C2)] * [P(F2|C2) * P(C2)] * [P(F3|C2) * P(C2)]
5.2,計算P(Ci)
目標集共有兩類:男和女,男出現4 次,女出現4 次,所以:
P(C1) = 4 / 8 = 0.5P(C2) = 4 / 8 = 0.5
5.3,計算P(Fj|Ci)
通過觀察表格中的數據,我們可以知道:
# 性別為男的情況下,身高=高 的概率
P(F1|C1) = 2 / 4 = 0.5
# 性別為男的情況下,體重=中 的概率
P(F2|C1) = 2 / 4 = 0.5
# 性別為男的情況下,鞋碼=中 的概率
P(F3|C1) = 1 / 4 = 0.25
# 性別為女的情況下,身高=高 的概率
P(F1|C2) = 0 / 4 = 0
# 性別為女的情況下,體重=中 的概率
P(F2|C2) = 2 / 4 = 0.5
# 性別為女的情況下,鞋碼=中 的概率
P(F3|C2) = 2 / 4 = 0.5
5.4,計算P(Fj|Ci) * P(Ci)
上面我們已經推導過P(C1|F) 和 P(C2|F),下面可以求值了:
P(C1|F)
=> [P(F1|C1) * P(C1)] * [P(F2|C1) * P(C1)] * [P(F3|C1) * P(C1)]
=> [0.5 * 0.5] * [0.5 * 0.5] * [0.25 * 0.5]
=> 0.25 * 0.25 * 0.125
=> 0.0078125
P(C2|F)
=> [P(F1|C2) * P(C2)] * [P(F2|C2) * P(C2)] * [P(F3|C2) * P(C2)]
=> [0 * 0.25] * [0.5 * 0.5] * [0.5 * 0.5]
=> 0
最終可以看到 P(C1|F) > P(C2|F),所以該特征屬於C1,即男性。
6,總結
可以看到,對於一個分類問題:給定一個數據F,求解它屬於哪個分類? 實際上就是要求解F 屬於各個分類的概率大小,即P(C|F)。
根據朴素貝葉斯原理,P(C|F) 與 P(F|C) * P(C) 正相關,所以最終要求解的就是P(F|C) * P(C)。這就將一個分類問題轉化成了一個概率問題。
下篇文章會介紹如何使用朴素貝葉斯處理實際問題。
(本節完。)
推薦閱讀:
歡迎關注作者公眾號,獲取更多技術干貨。
