《機器學習技法》---支持向量回歸


1 核型嶺回歸

首先,嶺回歸的形式如下:

在《核型邏輯回歸》中我們介紹過一個定理,即以上這種形式的問題,求得的w都能表示為z的線性組合:

因此我們把w代入,問題就轉化為求β的問題,同時引入核技巧:

 

求解這個問題,先求梯度:

令梯度為0,可以直接解出β:

上式中,可保證逆矩陣一定存在,因為K是半正定的。

下面對比了線性嶺回歸和核型嶺回歸:

核型嶺回歸更加靈活,缺點是數據量大時效率低(可以用hadoop解決)。

 

 

2 SVR的標准形式

先介紹一下LSSVM,也就是用核型嶺回歸來做分類。下面是LSSVM與soft-margin SVM的對比:

從圖中我們看出,雖然邊界上差別不大,但是LSSVM比起soft-margin有個致命的缺點,就是有太多的支持向量(我們無法保證β是sparse的),而soft-margin則可以根據KKT條件推出它的α是sparse的。這樣LSSVM這個模型就會非常的“肥大”,存儲的代價也遠遠不如soft-margin:

接下來,我們就探討如何改進LSSVM,使得它的α是sparse的。這種改進的模型就是我們要介紹的SVR。

 

我們對LSSVM的errhat做這樣的改進,把原來的squared error改為tube error。所謂tube error,就是考慮一個藍色的“安全區”,在此范圍內不計算懲罰,在此范圍外,只計算它到藍色邊界的距離作為懲罰,下圖是兩個error的對比圖:

 

這樣的話,我們的Tube Regression問題如下:

我們把上面的問題做如下的變形(后面兩步沒太看懂):

這樣的話,就得到了我們SVR的標准形式:

 

3 SVR的對偶形式

利用與SVM對偶問題一樣的推導方式,我們構造拉格朗日函數:

並根據KKT條件:

代入經過一番數學推導后,可以得到對偶形式的SVR(注意引入了核函數):

用二次規划程式就可以很方便的求解了。 

 

下面我們說明,為什么SVR的β是sparse的。

對於在tube范圍內的數據,我們有:

根據ξ上和ξ下的定義,可知這里這兩個都為0:

根據以上兩個條件,我們就有:

再根據KKT條件:

就推出:

因此,對於tube內的所有點,β都是0。因此是sparse的。

 

4 核模型的總結

總結一下我們學到的核模型:

SVM

SVR

核型嶺回歸

核型邏輯回歸

SVM概率輸出模型。

其中,核型嶺回歸以及核型邏輯回歸我們實際中很少使用,這是因為他們的表示不是sparse的。我們可以用SVR和SVM概率輸出來代替它們。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM