線性回歸
由樣本資料計算的回歸系數b和其他統計量一樣,存在抽樣誤差,因此,需要對線性回歸方程進行假設檢驗
1、方差分析
2、t檢驗
相關系數的假設檢驗
相關系數(correlation coefficient)又稱Pearson積差相關系數(coefficient of product moment correlation),是說明具有直線相關關系的兩個數值變量間相關的密切程度和相關方向的統計量
由於r是樣本統計量,需進行假設檢驗,即要判斷兩個變最X與Y是否真的存在相關關系,為此需根據r值作總體相關系數ρ是否為零的假設檢驗



多元回歸
多元線性回歸是研究一個應變量與多個自變量之間線性依存關系的統計方法,可以對自變量的作用進行評價,也可以用作預測和判別。
與直線回歸的情形相同,對所建立的多元回歸方程進行假設檢驗,以判斷它是否具有統計學意義。多元線性回歸方程的假設檢驗分為模型檢驗和單個回歸系數檢驗。
模型檢驗結果可用來判斷回歸方程是否具有統計學意義。
偏回歸系數檢驗。回歸方程具有統計學意義,只能說明整體的情況,並不能保證每個自變量都具有統計學意義。因此,需要對每個自變量的回歸系數進行假設檢驗,具體有F檢驗和t檢驗兩種方法,兩種檢驗方法的結果相同。


需要注意,因為自變量之間可能存在一定的相關性,當從原方程剔除一個變量時,其他一 些變量的回歸系數可能受到影響。 另外,有時需要比較各自變量的相對貢獻大小,由於回歸系數受變量度量衡的影響,不能直接比較。 為此,可以對回歸系數進行標准化處理,消除度量衡的影響。計算標准化回歸系數(standardized regression coefficient)反映各自變量對應變量的影響程度。
復相關系數和決定系數
復相關系數表示回歸方程中的全部自變量X與應變量Y的相關密切程度。和簡單相關系數不同的是,復相關系數(multiple correlation coefficient)取值總為正值,簡記為R(0≤R≤1)
復相關系數的平方稱為決定系數(coefficient of determination), 記為R2 ,反映線性回歸方程能在多大程度上解釋應變量Y的變異性
決定系數R2 反映了回歸方程與數據的擬合程度,其值越接近1,說明回歸方程的擬合程度越好;反之,其值越接近0,說明回歸方程的擬合程度越差
多元逐步回歸
多元線性回歸分析中,當自變量較多時,可能並不是所有自變量都對應變量有顯著影響,同時有些自變量之間可能相關,存在信息重疊和共線的問題。通常情況下,更希望將有統計學意義的自變量引人回歸方程,以使方程更為簡單,容易解釋。更重要的是,把不顯著的自變量排除后可以使回歸方程的殘差均方減小,有利於揭示其他自變量的作用。為此可以采用三種自變量篩選方法,即向前選擇法(forward selection)、向后選擇法(backward elimination)和逐步選擇法(stepwise selection)
1、向前選擇法。方程由一個自變量開始,每次引入一個偏回歸平方和最大、且具有統計學意義的自變量,由少到多,直到不具有統計意義的因素可以引入為止。這種方法的主要問題是,先進入方程的變量有可能受到后進入方程變量的影響變得不顯著。
2、向后選擇法。先建立一個包含所有自變量的回歸方程,然后每次剔除一個偏回歸平方和最小、且無統計學意義的自變量,直到不能剔除時為止。這種方法在樣本量比較大(如n>100),或者自變量不是很多的悄況下(如m<10)效果較好。
3、逐步選擇法。在前述兩種方法的基礎上進行雙向篩選的一種方法。即向前引入每一個新自變量之后都要重新對先前已選入的自變量進行檢查,以評價其有無繼續保留在方程中的價值。為此需要“引入”和“剔除”交替進行,直到無統計學意義的新變量可以引入也無自變量可以剔除時為止。
上述篩選自變量三種方法,可以計算偏回歸平方和的F統計量,進行檢驗和篩選。有時也采用校正決定系數(adjusted R-square)作為判斷標准,選擇校正決定系數大者為“最優” 方程。
在進行逐步回歸前,首先應確定檢驗每個自變量是否有統計學意義的F檢驗水平,以此作為引入或剔除變量的標准。F檢驗水平可以根據具體情況而定。一般而言,若使最終的回歸方程中包含較多的自變量,F水平可以適當放寬些,但也不能取得太低,否則會失去篩選自變量的意義。一般可將F值定在α為0.05、0.10或0.20水平上,同時要求α選入≤α剔除
