總結1:
留一法其實就是樣本量較小時使用的交叉驗證,算是普通交叉驗證的極端情況,即將所有N個樣本分成N份,再進行交叉驗證。
總結2:
k fold,就是把training data 折成k份(k<=N)進行交叉驗證,k = N 即留一(LOOCV)。
留一法交叉驗證:假設有N個樣本,將每一個樣本作為測試樣本,其它N-1個樣本作為訓練樣本。這樣得到N個分類器,N個測試結果。用這N個結果的平均值來衡量模型的性能。
普通交叉驗證:我理解的是K倍交叉驗證(k-fold cross validation):將所有樣本分成K份,一般每份樣本的數量相等或相差不多。取一份作為測試樣本,剩余K-1份作為訓練樣本。這個過程重復K次,最后的平均測試結果可以衡量模型的性能。
另外:建議題主善用搜索,google搜索“留一法交叉驗證”,第一個結果就有非常詳細的介紹。附鏈接: 交叉驗證(Cross-validation) --zz_ousman_新浪博客作者:Jason Gu 鏈接:https://www.zhihu.com/question/23561944/answer/24952652