多重共線性


檢驗多重共線

 

如果發現存在多重共線性,可以采取以下處理方法。

(1)如果不關心具體的回歸系數,而只關心整個方程預測被解釋變量的能力,則通常可以不必理會多重共線性(假設你的整個方程是顯著的)。這是因為,多重共線性的主要后果是使得對單個變量的貢獻估計不准,但所有變量的整體效應仍可以較准確地估計。

(2)如果關心具體的回歸系數,但多重共線性並不影響所關心變量的顯著性,那么也可以不必理會。即使在有方差膨脹的情況下,這些系數依然顯著;如果沒有多重共線性,則只會更加顯著。

(3) 如果多重共線性影響到所關心變量的顯著性,則需要增大樣本容量,剔除導致嚴重共線性的變量(不要輕易刪除哦,因為可能會有內生性的影響),或對模型設定進行修改。

解決多重共線性

向前逐步回歸Forward selection:將自變量逐個引入模型,每引入一個自變量后都要進行檢驗,顯著時才加入回歸模型。 (缺點:隨着以后其他自變量的引入,原來顯著的自變量也可能又變為不顯著了, 但是,並沒有將其及時從回歸方程中剔除掉。)

向前逐步回歸Forward selection: stepwise regress y x1 x2 … xk, pe(#1) pe(#1) specifies the significance level for addition to the model; terms with p<#1 are  eligible for addition(顯著才加入模型中).

⭐一般使用此方法⭐:向后逐步回歸Backward elimination:與向前逐步回歸相反,先將所有變量均放入模型,之后嘗試將其中一個自變量從模型中剔除,看整個模型解釋因變量的變異是否有顯著變化,之后將最沒有解釋力的那個自變量剔除;此過程不斷迭代, 直到沒有自變量符合剔除的條件。(缺點:一開始把全部變量都引入回歸方程, 這樣計算量比較大。若對一些不重要的變量,一開始就不引入,這樣就可以減少 一些計算。當然這個缺點隨着現在計算機的能力的提升,已經變得不算問題了)

向后逐步回歸Backward elimination: stepwise regress y x1 x2 … xk, pr(#2) pr(#2)  specifies the significance level for removal from the model; terms with p>= #2  are eligible for removal(不顯著就剔除出模型).

如果你覺得篩選后的變量仍很多,你可以減小#1或者#2

如果你覺得篩選后的變量太少了,你可以增加#1或者#2

重點:1、在進行逐步回歸之前一點要去除有完全多重共線性的變量

 

 

2、可以在后面再加參數b和r,即標准化回歸系數或穩健標准

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM