介紹
泛化誤差上界可理解為模型學習能力的“出錯上限”,顯然,當樣本容量趨於無窮大時,泛化誤差上界趨於\(0\).
本文介紹較簡單的二分類問題中的泛化誤差上界.以下先給出結論:
定理
在二分類問題中,若假設空間為有限個函數的集合\(\mathcal{F}=\left\{f_{1}, f_{2}, \cdots, f_{d}\right\}\),
對於任意一個函數\(f \in \mathcal{F}\),至少以概率\(1-\delta\),
以下不等式成立:
其中,
式\((1.1)\)中,\(R(f)\)為泛化誤差,或者稱之為測試集上的期望風險,\(\hat{R}(f)\)為訓練集上的經驗風險,\(\hat{R}(f)+\varepsilon(d, N, \delta)\)即為泛化誤差上界.觀察式\((1.2)\)可知,泛化誤差上界與樣本數\(N\)成正比,與假設空間包含的函數數量\(d\)成反比. 因此:當樣本數\(N\)越大,泛化誤差上界越小,當假設空間\(\mathcal{F}\)包含的函數越多,泛化誤差上界越大.
證明
證明利用了Hoeffding不等式:
設\(Sn= \sum_{i=1}^{N} X_i\)是獨立隨機變量\(X_1, X_2,\cdots,X_n\)之和,\(X_i \in [a_i, b_i]\),則對任意\(t>0\),以下不等式成立:
觀察式\((1.2)\)可知,\(R(f)\)是隨機變量\(L(Y,f(X))\)的期望值.觀察式\((1,3)\)可知,\(\hat R(f)\)是\(N\)個獨立隨機變量\(L(Y,f(X))\)的樣本均值. 因此我們需要找到\(\bar X_n\)與\(E(\bar X_n)\)之間的關系. 對上述Hoeffding不等式進行變形:
在二分類問題中,顯然\(a_i=0\), \(b_i=1\),因此上式可寫為:
從假設空間的全部函數上看,上式可寫為:
考慮對立事件。對任意\(f \in \mathcal{F}\), 有:
令:
\(\varepsilon\)的值可由上式反解得出,即得到式\((1.4)\)
綜上,至少以概率\(1-\delta\)有\(P(R(f) < \hat{R}(f) + \varepsilon)\)成立,證畢.
總結
然而這只是最簡單的二分類里的結論,對於更一般的假設空間如何找出泛化誤差上界就超出我的認知范圍了,路漫漫其修遠兮Orz.
參考文獻:[1] 李航.統計學習方法(第2版)[M].北京:清華大學出版社, 2019.