《機器學習技法》---核型邏輯回歸


1 無約束形式的soft-SVM

我們知道,soft-SVM的一般形式是:

這里我們把松弛變量ξn寫成下面的形式(這里其實就是松弛變量的定義,如果這個點不違反硬條件,則它的松弛變量為0,否則的話,松弛變量的值就是它到底違反了多少,即yn(w*xn + b)與1的差值):

這樣寫之后,原問題的約束條件已經被包含進來了。因此原問題變為下面的無約束形式:

 

2 soft-SVM與邏輯回歸的聯系

我們用另一種方式看待上面的無約束形式:第一項是正則項,第二項是替代01錯誤的一個errhat。我們把01錯誤和這個errhat畫在圖上,可以發現:

這個errhat是01錯誤的上界,所以我們只要做好這個errhat,也就間接做好了01錯誤。

我們再把邏輯回歸的errhat加進來:

黃色的線是邏輯回歸的err。可以發現,它和svm的err是很接近的!

結論:

加L2正則的邏輯回歸,很近似的相當於soft-SVM。

 

3 用SVM來輸出概率值

由於SVM和邏輯回歸的相似性,因此我們可以用如下兩層學習的方式,先學一個SVM模型,然后把這個模型的打分用最大似然的原則的微調:

得到的混合模型就可以用來輸出概率。

 

4 核型邏輯回歸KLR

加L2正則的邏輯回歸,可以用核函數來做。下面我們做一番推導。

首先介紹一個定理,Representer Theorem:

 

即:對於加了L2正則,並且err是wz的函數的問題,最優的w一定是z的線性組合。

證明如下:

因此,對於加L2正則的邏輯回歸來說,就有:

代入最優的w形式,並把z的乘積用核函數表示:

 

5 另一個視角看KLR

我們的KLR既可以看作是z空間上的一個線性模型,也可以看作是核函數對原始特征變換后產生新特征的一個線性模型。

KLR的形式是:

經核函數變換得到的新特征是:

右邊這一項就是在新特征上的一個線性模型,左邊這一項可以看作一個正則項:

因此KLR既可以看作是w的一個線性模型,也可以看作是β的一個線性模型:


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM