機器學習筆記—局部權重線性回歸


看下面三幅圖,x 軸是房間面積,y 軸是房價。

左圖是 y = θ0 + θ1x 擬合數據集的結果。可以看到數據並不貼靠在直線上,所以擬合並不好。

中圖是 y = θ0 + θ1x + θ2x2 擬合數據集的結果,擬合得還不錯。

右圖是 y = θ0 + θ1x + θ2x2  + θ3x3 + θ4x4 + θ5x5 擬合數據集的結果,雖然曲線跟數據擬合得極好,但我們這是一個好的預測。

左圖被稱為欠擬合,數據並沒有被模型捕獲。右圖被稱為過擬合。

由以上例子可見,特征的選擇對於保證學習算法好的性能是很重要的。當我們講到模型選擇時,會看到自動選擇特征集合的算法。

這次我們先講局部權重線性回歸算法,使得特征的選擇沒那么重要,怎么做到的呢?請往下看。

在原始的線性回歸算法中,要在 x 點做一個預測,我們會執行:

1、變動 θ 以最小化 ∑i(y(i)Tx(i))2

2、輸出 θTX

在局部權重線性回歸算法中,做法稍有不同:

1、變動 θ 以最小化 ∑iw(i)(y(i)Tx(i))2

2、輸出 θTX

多了個 w(i),是做什么用的呢?

w(i) 是非負值的權重,直觀上看,當 w(i) 很大時,那么在選擇 θ 時,我們會盡量使 x(i) 點的值 (y(i)Tx(i))小,也就是更加重視 x(i) 點的預測准確度,當 w(i) 很小時,那么 x(i) 點的准確度我們就不那么在乎, (y(i)Tx(i))2 的誤差大也無所謂,也可以說不在乎 x(i) 點。

權重通常定義為:

可以看到權重大小決定於我們要評估的 x 點的位置,當 x(i) 離 x 點很近,即 |x(i)-x| 很小接近於 0 時,那么 w(i) 就接近 1;當 x(i) 離 x 點很遠,即 |x(i)-x| 很大時,那么 w(i) 就變得很小。所以在 θ 的選擇上給予查詢點 x 附近的訓練集更高的權重。τ 是控制 x(i) 的權重隨着離 x 距離變遠而變小的速度。

局部權重線性回歸算法是我們介紹的第一個非參數算法。之前我們介紹的線性回歸算法是參數學習算法,因為它有固定、有限個數的參數 θ,一旦我們找到合適的 θ,在預測新數據是,就不再需要訓練數據集。而局部權重線性回歸算法,做預測時,就需要用到整個訓練集。術語 ”非參數“ 實際上就是為了表示假設 h,我們需要保持的負擔量隨訓練集大小呈線性增長。

 

參考資料:

1、http://cs229.stanford.edu/notes/cs229-notes1.pdf

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM