QR分解與線性回歸


1 一元回歸與多元回歸

任何一本初級水平的計量經濟學、統計學或機器學習相關書籍,都會詳細推導多元線性線性回歸的解,在這里就不再贅述。

我們給出本文用到的一些設定。\(y\)\(N\)維因變量向量,假設\(y=X\beta+\epsilon\),如果自變量為\(p\)維,將\(X\)排為\(N\times (p+1)\)矩陣,其中第一列\(x_{\cdot 0}=1_N\)為全是\(1\)的截距項,我們有最小二乘估計:

\[\hat \beta = (X'X)^{-1}X'y \]

如果是單變量回歸,並且沒有截距項的話,將自變量記為\(N\)維向量\(x\)\(y=x'\beta\)\(\beta\)的最小二乘估計為

\[\hat\beta=\dfrac{x'y}{x'x} \]

二者有何聯系?如果在多變量回歸中,\(X\)的列向量相互正交即\(X'X\)為對角矩陣,則可以得出,每個系數的估計值為\(\hat\beta_j=\dfrac{x_{\cdot j}'y}{x_{\cdot j}'x_{\cdot j}}\)

這給了我們一種啟示,能否構造出相互正交的一些維度?

2 Gram–Schmidt過程

我們用如下過程計算\(\hat\beta_p\)

  1. \(z_{\cdot 0}=x_{\cdot 0}=1_N\)
  2. 遍歷\(j = 1,\ldots,p\):用\(x_{\cdot j}\)\(l=0,\ldots, j-1\)的每個\(z_{\cdot l}\)分別做無截距項的一元線性回歸,分別得到系數\(\hat\gamma_{lj}=\dfrac{z_{\cdot l}'x_{\cdot j}}{z_{\cdot l}'z_{\cdot l}}\),最后得到\(z_{\cdot j}=x_{\cdot j}-\sum_{k=0}^{j=1}\hat\gamma_{kj}z_{\cdot k}\)
  3. 再用\(y\)\(z_{\cdot p}\)做無截距項的一元回歸,得到最終的\(\hat\beta_p=\dfrac{z_{\cdot p}'y}{z_{\cdot p}'z_{\cdot p}}\)

由於\(x_{\cdot p}\)只在\(z_{\cdot p}\)中出現,並且與\(z_{\cdot 0},\ldots,z_{\cdot p-1}\)均正交,因此有以上結果。若\(\epsilon\sim N(0,\sigma^2 I_N)\),則該估計的方差可以寫為

\[\text{Var}(\hat\beta_p)=\dfrac{z_{\cdot p}'}{z_{\cdot p}'z_{\cdot p}} \text{Var}(y) \dfrac{z_{\cdot p}}{z_{\cdot p}'z_{\cdot p}} = \dfrac{\sigma^2}{z_{\cdot p}'z_{\cdot p}} \]

注意到,每一個維度都可以作為第\(p\)維,因此,每一個\(\hat\beta_j\)都可以用這樣的方法得出。

3 QR分解

如果補充上\(\hat\gamma_{jj}=0\),其中\(j=0,\ldots,p\),將所有的\(\hat\gamma_{ij}\)排成\((p+1)\times (p+1)\)上三角矩陣\(\Gamma\),同時再記\(Z=(z_{\cdot 0}, z_{\cdot 1},\ldots, z_{\cdot p})\),則有

\[X=Z\Gamma \]

再構造一個\((p+1)\times (p+1)\)的對角矩陣\(D\),對角線元素為\(D_{ii}=\Vert z_{\cdot i}\Vert\),即\(Z'Z=D^2\),在上式中間插入\(D^{-1}D=I_{p+1}\),則有

\[X=Z\Gamma = ZD^{-1}D\Gamma \]

\(Q=ZD^{-1}\)\(R=D\Gamma\),這就是矩陣\(X\)QR分解\(X=QR\)

由於\(Z\)的列向量相互正交,因此\(Q'Q=D^{-1}Z'ZD=I_{p+1}\),而\(R\)還是一個上三角矩陣。利用QR分解,我們可以將最小二乘估計寫為

\[\hat\beta = R^{-1}Q'y \]

並有擬合值

\[\hat y=QQ'y \]

由於\(R\)是上三角矩陣,且最后一行為\((0,\ldots,0,\Vert z_{\cdot p}\Vert)\),因此\(R^{-1}\)也是上三角矩陣,且最后一行為\((0,\ldots,0,1/\Vert z_{\cdot p}\Vert)\)。再利用\(Q=(z_{\cdot 0}/\Vert z_{\cdot 0}\Vert, z_{\cdot 1}/\Vert z_{\cdot 1}\Vert,\ldots, z_{\cdot p}/\Vert z_{\cdot p}\Vert)\),可得出\(R^{-1}Q'\)的最后一行為\(z_{\cdot p}'/\Vert z_{\cdot p}\Vert^2\),因此,有

\[\hat\beta_p=z_{\cdot p}'y/\Vert z_{\cdot p}\Vert^2 \]

這也與第2節的結果一致。

參考文獻

  • Hastie, Trevor, Robert Tibshirani, and Jerome Friedman. The elements of statistical learning: data mining, inference, and prediction. Springer Science & Business Media, 2009.


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM