為什么樣本方差的分母是n-1?最簡單的原因,是因為因為均值已經用了n個數的平均來做估計在求方差時,只有(n-1)個數和均值信息是不相關的。而你的第n個數已經可以由前(n-1)個數和均值 來唯一確定,實際上沒有信息量。所以在計算方差時,只除以(n-1)。
那么更嚴格的證明呢?請耐心的看下去。
樣本方差計算公式里分母為的目的是為了讓方差的估計是無偏的。
無偏的估計(unbiased estimator)比有偏估計(biased estimator)更好是符合直覺的,盡管有的統計學家認為讓mean square error即MSE最小才更有意義,這個問題我們不在這里探討;不符合直覺的是,為什么分母必須得是而不是才能使得該估計無偏。
首先,我們假定隨機變量的數學期望是已知的,然而方差未知。在這個條件下,根據方差的定義我們有
由此可得
因此
是方差的一個無偏估計,注意式中的分母不偏不倚正好是!這個結果符合直覺,並且在數學上也是顯而易見的。
現在,我們考慮隨機變量的數學期望是未知
的情形。這時,我們會傾向於無腦直接用樣本均值
替換掉上面式子中的
。這樣做有什么后果呢?后果就是,如果直接使用
作為估計,那么你會傾向於低估方差!這是因為:
換言之,除非正好,否則我們一定有
而不等式右邊的那位才是的對方差的“正確”估計!這個不等式說明了,為什么直接使用
會導致對方差的低估。
那么,在不知道隨機變量真實數學期望的前提下,如何“正確”的估計方差呢?答案是把上式中的分母n換成n-1,通過這種方法把原來的偏小的估計“放大”一點點,我們就能獲得對方差的正確估計了:
至於為什么分母是n-1而不是n-2或者別的什么數,最好還是去看真正的數學證明,因為數學證明的根本目的就是告訴人們“為什么”;暫時我沒有辦法給出更“初等”的解釋了。
更多機器學習、編程、AI相關知識,也歡迎關注我的公眾號“圖靈的貓”。關注公眾號,點擊“學習資料”菜單,即可獲得海量機器學習、深度學習書籍等免費PDF資源~