概率圖模型之:貝葉斯網絡


1、貝葉斯定理

 

P(AB)=P(A)P(BA)P(B)

 

P(A|B)是已知B發生后A的條件概率,也由於得自B的取值而被稱作A的后驗概率。 
P(B|A)是已知A發生后B的條件概率,也由於得自A的取值而被稱作B的后驗概率。 
P(A)是A的先驗概率或邊緣概率。之所以稱為”先驗”是因為它不考慮任何B方面的因素。 
P(B)是B的先驗概率或邊緣概率。 
貝葉斯定理可表述為:后驗概率 = (相似度 * 先驗概率) / 標准化常量 
也就是說,后驗概率與先驗概率和相似度的乘積成正比。 
比例P(B|A)/P(B)也有時被稱作標准相似度,貝葉斯定理可表述為:后驗概率 = 標准相似度 * 先驗概率 
假設{Ai}是事件集合里的部分集合,對於任意的Ai,貝葉斯定理可用下式表示: 
 

2、貝葉斯網絡

貝葉斯網絡,由一個有向無環圖(DAG)和條件概率表(CPT)組成。 
貝葉斯網絡通過一個有向無環圖來表示一組隨機變量跟它們的條件依賴關系。它通過條件概率分布來參數化。每一個結點都通過P(node|Pa(node))來參數化,Pa(node)表示網絡中的父節點。

如圖是一個簡單的貝葉斯網絡,其對應的全概率公式為:

P(a,b,c)=P(ca,b)P(ba)P(a)

這里寫圖片描述

 

較復雜的貝葉斯網絡,其對應的全概率公式為:

P(x1,x2,x3,x4,x5,x6,x7)=P(x1)P(x2)P(x3)P(x4x1,x2,x3)P(x5x1,x3)P(x6x4)P(x7x4,x5)

這里寫圖片描述

 

3、貝葉斯網絡Student模型

一個學生擁有成績、課程難度、智力、SAT得分、推薦信等變量。通過一張有向無環圖可以把這些變量的關系表示出來,可以想象成績由課程難度和智力決定,SAT成績由智力決定,而推薦信由成績決定。該模型對應的概率圖如下: 
這里寫圖片描述

4、通過概率圖python類庫pgmpy構建Student模型

代碼如下:

代碼如下:

from pgmpy.models import BayesianModel
from pgmpy.factors.discrete import TabularCPD

# 通過邊來定義貝葉斯模型
model = BayesianModel([('D', 'G'), ('I', 'G'), ('G', 'L'), ('I', 'S')])

# 定義條件概率分布
cpd_d = TabularCPD(variable='D', variable_card=2, values=[[0.6, 0.4]])
cpd_i = TabularCPD(variable='I', variable_card=2, values=[[0.7, 0.3]])

# variable:變量
# variable_card:基數
# values:變量值
# evidence:
cpd_g = TabularCPD(variable='G', variable_card=3, 
                   values=[[0.3, 0.05, 0.9, 0.5], [0.4, 0.25, 0.08, 0.3], [0.3, 0.7, 0.02, 0.2]],
                  evidence=['I', 'D'],
                  evidence_card=[2, 2])

cpd_l = TabularCPD(variable='L', variable_card=2, 
                   values=[[0.1, 0.4, 0.99], [0.9, 0.6, 0.01]],
                   evidence=['G'],
                   evidence_card=[3])

cpd_s = TabularCPD(variable='S', variable_card=2,
                   values=[[0.95, 0.2], [0.05, 0.8]],
                   evidence=['I'],
                   evidence_card=[2])

# 將有向無環圖與條件概率分布表關聯
model.add_cpds(cpd_d, cpd_i, cpd_g, cpd_l, cpd_s)

# 驗證模型:檢查網絡結構和CPD,並驗證CPD是否正確定義和總和為1
model.check_model()

 

獲取上述代碼構建的概率圖模型:

In[1]:model.get_cpds()
Out[1]: 
[<TabularCPD representing P(D:2) at 0x10286e198>,
 <TabularCPD representing P(I:2) at 0x10286e160>,
 <TabularCPD representing P(G:3 | I:2, D:2) at 0x100d69710>,
 <TabularCPD representing P(L:2 | G:3) at 0x10286e1d0>,
 <TabularCPD representing P(S:2 | I:2) at 0x1093f6358>]

 

獲取結點G的概率表:

獲取結點G的概率表:

In[2]:print(model.get_cpds('G'))
╒═════╤═════╤══════╤══════╤═════╕
│ I   │ I_0 │ I_0  │ I_1  │ I_1 │
├─────┼─────┼──────┼──────┼─────┤
│ D   │ D_0 │ D_1  │ D_0  │ D_1 │
├─────┼─────┼──────┼──────┼─────┤
│ G_0 │ 0.30.050.90.5 │
├─────┼─────┼──────┼──────┼─────┤
│ G_1 │ 0.40.250.080.3 │
├─────┼─────┼──────┼──────┼─────┤
│ G_2 │ 0.30.70.020.2 │
╘═════╧═════╧══════╧══════╧═════╛

獲取結點G的基數:

In[3]: model.get_cardinality('G') 
Out[3]: 3

新數據節點值的預測跟計算條件概率非常相似,我們需要查詢預測變量的其他全部特征。困難在於通過分布概率去代替更多可能的變量狀態。

In[7]: infer.map_query('G')
Out[7]: {'G': 
 

轉自:http://blog.csdn.net/gnahznib/article/details/70244175

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM