基於最小錯誤率的貝葉斯決策


理論上的東西,就不寫了,也寫不出什么有價值的東西,資料太多了。后文很多關於原理的講述都給出了其他文章的引用。

分享一個比較簡單易懂的貝葉斯決策理論與統計判別方法

數據集:

Dataset1.txt

328 個同學的身高、體重、性別數據(78 個女生、250 個男生)

Dataset2.txt

124 個同學的數據(40 女、84 男)

Dataset3.txt

90 個同學的數據(16 女,74 男)

問題描述:

           以dataset1為訓練數據庫,假設身高與體重滿足高斯分布,進行高斯分布的參數估計,並進行基於最小錯誤率的貝葉斯分類,分別考慮男女的先驗概率,0.5-0.5;0.6-0.4;0.7-0.3,0.8-0.2,並以dataset2和dataset3為測試數據庫分析分類性能,並探討先驗概率對分類性能的影響

需要解決的問題:

通過文章開頭提供的資料可以看出,其實判別的函數就是下圖,就是給定一個待測向量X,它是類別Wi的概率。

image

等號右邊,P(Wi)就是先驗概率,而p(X|Wi)則需要根據高斯概率密度函數(什么是高斯分布?高斯分布)進行估計:

79af499be9466b7dce2cf8ac19fa0a07

然而,上面常見的高斯概率密度函數只是針對一維的參數X,對於大多數情況,輸入參數會是多維的,多元高斯概率密度函數怎么求解呢?

可以參考這篇文章:多元正態分布的概率密度函數

於是,我們得到針對二元變量的概率密度函數求解為:

e8604630c8d353c0a8018ece

重點說明下,上面的image參數,是多元變量間的相關性參數,設定值應該小於1。

二元變量相關系數求法:

 

解決問題(python,numpy庫支持):

#-*-encoding:utf-8-*-
import numpy
import math

def importdata(filename = 'dataset1.txt') :
    '''
    導入訓練集
    '''
    f = open(filename,'r')
    dataset = []
    arr = []
    for item in f :
        vars = item.split()
        dataset.append([float(vars[0]), float(vars[1]), vars[2].upper()])
    return dataset 

def getParameters(dataset) :
    '''
    從訓練集分別獲取不同類別下的期望、方差、標准差、類別的先驗概率以及變量間相關系數
    '''
    class1 = []
    class2 = []
    class_sum = []
    for item in dataset :
        class_sum.append([item[0],item[1]])
        if item[-1] == 'F' :
            class1.append([item[0],item[1]])
        if item[-1] == 'M' :
            class2.append([item[0],item[1]])
    class1 = numpy.array(class1)
    class2 = numpy.array(class2)
    class_total = numpy.array(class_sum)
    mean1 = numpy.mean(class1,axis=0)
    variance1 = numpy.var(class1,axis=0)
    stand_deviation1 = numpy.std(class1,axis=0)
    mean2 = numpy.mean(class2,axis=0)
    variance2 = numpy.var(class2,axis=0)
    stand_deviation2 = numpy.std(class2,axis=0)
    class_total = (len(class1) + len(class2)) * 1.0
    
    mean = numpy.mean(class_sum, axis=0)
    stand_deviation = numpy.std(class_sum, axis=0)
    
    new_arr = [ ((item[0] - mean[0]) * (item[1] - mean[1]) / stand_deviation[0] / stand_deviation[1])  for item in dataset]
    coefficient = numpy.mean(new_arr)

    return (mean1,mean2),(variance1,variance2),(stand_deviation1, stand_deviation2),(len(class1)/class_total,len(class2)/class_total),coefficient
     

def GaussianFunc(mean, variance, stand_deviation, coefficient) :
    '''
    根據指定參數(期望、方差、標准差、多元向量間的相關性)生成高斯函數
    多元變量的高斯函數
    '''
    def func(X) :
        X = [X[0] - mean[0], X[1] - mean[1]]
        B = [[variance[0], coefficient * stand_deviation[0] * stand_deviation[1]],[coefficient * stand_deviation[0] * stand_deviation[1], variance[1]]]
        inv_B = numpy.linalg.inv(B)
        A = inv_B
        B_val = (1.0 - coefficient**2) * variance[0] * variance[1]
        tmp1 = 2*math.pi * (B_val ** 0.5)
        X = numpy.array([X])
        tmp2 = (-0.5) * numpy.dot(numpy.dot(X, A), X.T)
        res = 1.0 / tmp1 * (math.e ** tmp2)
        return res
    return func


def f(X, funcs, class_ps, index) :
    '''
    貝葉斯概率計算函數
    '''
    tmp1 = funcs[index](X) * class_ps[index]
    tmp2 = funcs[0](X) * class_ps[0] + funcs[1](X) * class_ps[1]
    return tmp1 / tmp2


def classify(X,funcs,class_ps,labels) :
    '''
    基於最小錯誤率的貝葉斯判別分類。對於二類分類問題,簡化了。
    '''
    res1 = f(X,funcs,class_ps,0)
    res2 = f(X,funcs,class_ps,1) 
    if res1 > res2 :
        return labels[0]
    else :
        return labels[1]

def test(dataset, funcs,class_ps,labels) :
    '''
    測試
    '''
    positive0 = 0
    positive1 = 0
    F = [item for item in dataset if item[-1] == 'F']
    len_F = len(F)
    len_M = len(dataset) - len_F
    for item in dataset :
        res = classify([item[0],item[1]], funcs, class_ps,labels)
        if res == item[-1] and res == 'F' :
            positive0 += 1
        if res == item[-1] and res == 'M' :
            positive1 += 1
    print 'F', positive0 * 1.0 / len_F
    print 'M', positive1 * 1.0 / len_M


if __name__ == '__main__' :
    dataset = importdata()
    (mean1,mean2),(variance1,variance2),(stand_deviation1, stand_deviation2), (class1_p, class2_p), coefficient = getParameters(dataset)
    func1 = GaussianFunc(mean1, variance1, stand_deviation1,coefficient)
    func2 = GaussianFunc(mean2, variance2, stand_deviation2,coefficient)
    #print func1([160,45])
    #print func1([170,50])
    #print func1([175,50])
    #print func1([190,20])
    funcs = []
    funcs.append(func1)
    funcs.append(func2)
    class_ps = []
    class_ps.append(class1_p)
    class_ps.append(class2_p)

    classs = [class_ps]
    '''
    手工指定先驗概率
    '''
    classs.append([0.5,0.5])
    classs.append([0.4,0.6])
    classs.append([0.3,0.7])
    classs.append([0.2,0.8])

    labels = ['F', 'M']
    for class_ps in classs :
        print '-' * 24
        print class_ps
        print '-'*10,'dataset1','-'*10
        testset0 = importdata('dataset1.txt')
        test(testset0, funcs, class_ps, labels)
        print '-'*10,'dataset2','-'*10
        testset1 = importdata('dataset2.txt')
        test(testset1, funcs, class_ps, labels)
        print '-'*10,'dataset3','-'*10
        testset2 = importdata('dataset3.txt')
        test(testset2, funcs, class_ps, labels)

 

實驗結果(不同先驗概率下的,對dataset1、2、3的測試結果判別正確率,先驗概率順序:F(女)、M(男)):

------------------------
[0.23780487804878048, 0.7621951219512195]
---------- dataset1 ----------
Total 0.92987804878
F 0.807692307692
M 0.968
---------- dataset2 ----------
Total 0.879032258065
F 0.8
M 0.916666666667
---------- dataset3 ----------
Total 0.833333333333
F 0.5625
M 0.891891891892
------------------------
[0.5, 0.5]
---------- dataset1 ----------
Total 0.911585365854
F 0.884615384615
M 0.92
---------- dataset2 ----------
Total 0.862903225806
F 0.85
M 0.869047619048
---------- dataset3 ----------
Total 0.844444444444
F 0.6875
M 0.878378378378
------------------------
[0.4, 0.6]
---------- dataset1 ----------
Total 0.926829268293
F 0.871794871795
M 0.944
---------- dataset2 ----------
Total 0.879032258065
F 0.825
M 0.904761904762
---------- dataset3 ----------
Total 0.855555555556
F 0.6875
M 0.891891891892
------------------------
[0.3, 0.7]
---------- dataset1 ----------
Total 0.92987804878
F 0.846153846154
M 0.956
---------- dataset2 ----------
Total 0.887096774194
F 0.825
M 0.916666666667
---------- dataset3 ----------
Total 0.855555555556
F 0.6875
M 0.891891891892
------------------------
[0.2, 0.8]
---------- dataset1 ----------
Total 0.932926829268
F 0.807692307692
M 0.972
---------- dataset2 ----------
Total 0.862903225806
F 0.725
M 0.928571428571
---------- dataset3 ----------
Total 0.822222222222
F 0.5
M 0.891891891892


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM