AIC和BIC


一、模型選擇之AIC和BIC

 人們提出許多信息准則,通過加入模型復雜度的懲罰項來避免過擬合問題,此處我們介紹一下常用的兩個模型選擇方法

 赤池信息准則(Akaike Information Criterion,AIC)和貝葉斯信息准則(Bayesian Information Criterion,BIC)

 

 AIC是衡量統計模型擬合優良性的一種標准,由日本統計學家赤池弘次在1974年提出

 它建立在熵的概念上,提供了權衡估計模型復雜度和擬合數據優良性的標准,通常情況下,AIC定義為:

\( AIC = 2K-2ln(L)  \)

 

 其中K是模型參數個數,L是似然函數。從一組可供選擇的模型中選擇最佳模型時,通常選擇AIC最小的模型。

 當兩個模型之間存在較大差異時,差異主要體現在似然函數項,當似然函數差異不顯著時,上式第一項,即模型復雜度則起作用,從而參數個數少的模型是較好的選擇。

 一般而言,當模型復雜度提高(k增大)時,似然函數L也會增大,從而使AIC變小,但是k過大時,似然函數增速減緩,導致AIC增大,模型過於復雜容易造成過擬合現象

 目標是選取AIC最小的模型,AIC不僅要提高模型擬合度(極大似然),而且引入了懲罰項,使模型參數盡可能少,有助於降低過擬合的可能性。

 

 BIC(Bayesian InformationCriterion)貝葉斯信息准則與AIC相似,用於模型選擇,1978年由Schwarz提出。

 訓練模型時,增加參數數量,也就是增加模型復雜度,會增大似然函數,但是也會導致過擬合現象

 針對該問題,AIC和BIC均引入了與模型參數個數相關的懲罰項,BIC的懲罰項比AIC的大,考慮了樣本數量,樣本數量過多時,可有效防止模型精度過高造成的模型復雜度過高:

\( BIC = Kln(n)-2ln(L)  \)

 其中,K為模型參數個數,n為樣本數量,L為似然函數。Kln(n)懲罰項在維數過大且訓練樣本數據相對較少的情況下,可以有效避免出現維度災難現象。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM