一、模型選擇之AIC和BIC
人們提出許多信息准則,通過加入模型復雜度的懲罰項來避免過擬合問題,此處我們介紹一下常用的兩個模型選擇方法
赤池信息准則(Akaike Information Criterion,AIC)和貝葉斯信息准則(Bayesian Information Criterion,BIC)
AIC是衡量統計模型擬合優良性的一種標准,由日本統計學家赤池弘次在1974年提出
它建立在熵的概念上,提供了權衡估計模型復雜度和擬合數據優良性的標准,通常情況下,AIC定義為:
\( AIC = 2K-2ln(L) \)
其中K是模型參數個數,L是似然函數。從一組可供選擇的模型中選擇最佳模型時,通常選擇AIC最小的模型。
當兩個模型之間存在較大差異時,差異主要體現在似然函數項,當似然函數差異不顯著時,上式第一項,即模型復雜度則起作用,從而參數個數少的模型是較好的選擇。
一般而言,當模型復雜度提高(k增大)時,似然函數L也會增大,從而使AIC變小,但是k過大時,似然函數增速減緩,導致AIC增大,模型過於復雜容易造成過擬合現象
目標是選取AIC最小的模型,AIC不僅要提高模型擬合度(極大似然),而且引入了懲罰項,使模型參數盡可能少,有助於降低過擬合的可能性。
BIC(Bayesian InformationCriterion)貝葉斯信息准則與AIC相似,用於模型選擇,1978年由Schwarz提出。
訓練模型時,增加參數數量,也就是增加模型復雜度,會增大似然函數,但是也會導致過擬合現象
針對該問題,AIC和BIC均引入了與模型參數個數相關的懲罰項,BIC的懲罰項比AIC的大,考慮了樣本數量,樣本數量過多時,可有效防止模型精度過高造成的模型復雜度過高:
\( BIC = Kln(n)-2ln(L) \)
其中,K為模型參數個數,n為樣本數量,L為似然函數。Kln(n)懲罰項在維數過大且訓練樣本數據相對較少的情況下,可以有效避免出現維度災難現象。