模型選擇的方法:AIC,k-折交叉驗證


AIC

此處模型選擇我們只考慮模型參數數量,不涉及模型結構的選擇。

很多參數估計問題均采用似然函數作為目標函數,當訓練數據足夠多時,可以不斷提高模型精度,但是以提高模型復雜度為代價的,同時帶來一個機器學習中非常普遍的問題——過擬合。所以,模型選擇問題在模型復雜度與模型對數據集描述能力(即似然函數)之間尋求最佳平衡。

人們提出許多信息准則,通過加入模型復雜度的懲罰項來避免過擬合問題,此處我們介紹一下常用的兩個模型選擇方法——赤池信息准則(Akaike Information Criterion,AIC)和貝葉斯信息准則(Bayesian Information Criterion,BIC)。

AIC是衡量統計模型擬合優良性的一種標准,由日本統計學家赤池弘次在1974年提出,它建立在熵的概念上,提供了權衡估計模型復雜度和擬合數據優良性的標准。

通常情況下,AIC定義為:

 

BIC 

其中k是模型參數個數,L是似然函數。從一組可供選擇的模型中選擇最佳模型時,通常選擇AIC最小的模型。

當兩個模型之間存在較大差異時,差異主要體現在似然函數項,當似然函數差異不顯著時,上式第一項,即模型復雜度則起作用,從而參數個數少的模型是較好的選擇。

一般而言,當模型復雜度提高(k增大)時,似然函數L也會增大,從而使AIC變小,但是k過大時,似然函數增速減緩,導致AIC增大,模型過於復雜容易造成過擬合現象。目標是選取AIC最小的模型,AIC不僅要提高模型擬合度(極大似然),而且引入了懲罰項,使模型參數盡可能少,有助於降低過擬合的可能性。

BIC(Bayesian InformationCriterion)貝葉斯信息准則與AIC相似,用於模型選擇,1978年由Schwarz提出。訓練模型時,增加參數數量,也就是增加模型復雜度,會增大似然函數,但是也會導致過擬合現象,針對該問題,AIC和BIC均引入了與模型參數個數相關的懲罰項,BIC的懲罰項比AIC的大,考慮了樣本數量,樣本數量過多時,可有效防止模型精度過高造成的模型復雜度過高。

其中,k為模型參數個數,n為樣本數量,L為似然函數。kln(n)懲罰項在維數過大且訓練樣本數據相對較少的情況下,可以有效避免出現維度災難現象。

 

k-折交叉驗證

k-折交叉驗證將樣本集隨機划分為k份,k-1份作為訓練集,1份作為驗證集,依次輪換訓練集和驗證集k次,驗證誤差最小的模型為所求模型。具體方法如下:

1.隨機將樣本集S划分成k個不相交的子集,每個子集中樣本數量為m/k個,這些子集分別記作

 

2.對於每個模型,進行如下操作:

for j=1 to k

作為訓練集,訓練模型,得到相應的假設函數

再將作為驗證集,計算泛化誤差

 

3.計算每個模型的平均泛化誤差,選擇泛化誤差最小的模型

 

 
 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM