拉格朗日乘子法 - KKT條件 - 對偶問題
支持向量機 (一): 線性可分類 svm
支持向量機 (二): 軟間隔 svm 與 核函數
支持向量機 (三): 優化方法與支持向量回歸
軟間隔最大化(線性不可分類svm)
上一篇求解出來的間隔被稱為 “硬間隔(hard margin)“,其可以將所有樣本點划分正確且都在間隔邊界之外,即所有樣本點都滿足 \(y_{i}(\boldsymbol{w}^{\top} \boldsymbol{x}_{i}+b) \geqslant 1\) 。
但硬間隔有兩個缺點:1. 不適用於線性不可分數據集。 2. 對離群點(outlier)敏感。
比如下圖就無法找到一個超平面將藍點和紫點完全分開:

下圖顯示加入了一個離群點后,超平面發生了很大的變動,最后形成的間隔變得很小,這樣最終的泛化效果可能不會太好。

為了緩解這些問題,引入了 “軟間隔(soft margin)”,即允許一些樣本點跨越間隔邊界甚至是超平面。如下圖中一些離群點就跨過了間隔邊界。

於是為每個樣本點引入松弛變量 \(\large{\xi_i}\),優化問題變為:
由上式可以看出:
-
離群點的松弛變量值越大,點就離間隔邊界越遠。
-
所有沒離群的點松弛變量都等於0,即這些點都滿足 \(y_{i}\left(\boldsymbol{w}^{\top} \boldsymbol{x}_{i}+b\right) \geqslant 1\) 。
-
\(C > 0\) 被稱為懲罰參數,即為 scikit-learn 中的 svm 超參數C。當C設的越大,意味着對離群點的懲罰就越大,最終就會有較少的點跨過間隔邊界,模型也會變得復雜。而C設的越小,則較多的點會跨過間隔邊界,最終形成的模型較為平滑。
該優化問題的求解方法與前篇類似,為每條約束引入拉格朗日乘子: \(\alpha_i \geqslant 0, \; \beta_i \geqslant 0\) ,\((1.1)\) 式的拉格朗日函數為:
其對偶問題為: $$ \begin{aligned} \max_{\boldsymbol{\alpha}, \boldsymbol{\beta}}\min_{\boldsymbol{w},b,\boldsymbol{\xi}} &\;\; \mathcal{L}(\boldsymbol{w}, b, \boldsymbol{\xi}, \boldsymbol{\alpha}, \boldsymbol{\beta}) \\[1ex] \text{s.t.} &\;\; \alpha_i \geq 0, \quad i=1,2, \ldots m \\[1ex] & \;\;\beta_i \geq 0, \quad i = 1,2, \ldots m \end{aligned} \tag{1.3} $$
上式內層對 \((\boldsymbol{w}, b, \boldsymbol{\xi})\) 的優化屬於無約束優化問題,則令偏導為零:
將 \((1.4) \sim (1.6)\) 式代入 \((1.2)\) 式得:
又由 \((1.6)\) 式: \(\beta_i = C - \alpha_i \geqslant 0\) ,因而 \(0 \leqslant \alpha_i \leqslant C\) ,於是最后的優化問題化簡為:
與硬間隔 svm 一樣,軟間隔 svm 的超平面參數 \((\boldsymbol{w}, b)\) 同樣由支持向量決定,然而對於軟間隔 svm 中支持向量的討論是一件比較搞腦子的事情,因為可分類的情況眾多,下面進行詳細討論。不過首先回顧一下前文中硬間隔 svm 的支持向量 —— 就兩種情況: (1) \(\alpha_i > 0, \;y_i(\boldsymbol{w}^{\top}\boldsymbol{x}_i + b) = 1\) ,表示在間隔邊界上的樣本為支持向量; (2) \(\alpha_i = 0, \; y_i(\boldsymbol{w}^{\top}\boldsymbol{x}_i + b) > 1\) ,不是支持向量。
對於軟間隔 svm ,推導其支持向量需要的仍然是 \((1.3)\) 式最優解的 KKT 條件:
下面分情況討論:
\((1) \;\; \alpha_i = 0\), 由 \((1.4)\) 式 \(\boldsymbol{w} = \sum\limits_{i=1}^m \alpha_iy_i\boldsymbol{x}_i = 0\) ,不是支持向量。
\((2) \;\, 0 < \alpha_i < C \implies (1.11)式:\; \beta_i > 0 \implies (1.13)式:\; \xi_i = 0 \implies (1.12)式:\; y_i(\boldsymbol{w}^{\top}\boldsymbol{x}_i + b) = 1\) ,該樣本在間隔邊界上。 為什么不會出現 \(\xi_i > 0\) 的情況? 回顧 [拉格朗日乘子法 - KKT條件 - 對偶問題] 第二節 KKT 條件:
因而若 \((1.13)\) 式中拉格朗日乘子 \(\beta_i > 0\) ,則 \(\xi_i = 0\) 。
\((3) \;\; \alpha_i = C \implies (1.11) 式:\; \beta_i = 0 \implies (1.13)式:\; \xi_i > 0 \implies\)
有了上述討論后,我們來看軟間隔 svm 如何得到最終的參數 \((\boldsymbol{w}, b)\) 。其中 \(\boldsymbol{w}\) 和硬間隔一樣由 \((1.4)\) 式得出,而 \(b\) 的情況則不同。選擇一個支持向量 \((\boldsymbol{x}_s, y_s)\) 使得 \(\alpha_i > 0\) ,則由 \((1.12)\) 式並利用 \(y_s^2 =1\) :
現在由於 \(b\) 還未求出,所以我們不知道超平面的具體樣貌,如果選擇了一個 \(\xi_s > 0\) 的支持向量,就無法得知 \(\xi_s\) 的具體值是多少 (由 (1.12) 式: \(\xi_s = 1 - y_i(\boldsymbol{w}^{\top}\boldsymbol{x}_i + b)\) ),也就無法求出 \(b\) 。因此這里需要使 \(\xi_s = 0\) 才能求出 \(b\) ,由上文討論可知只有 \(0 < \alpha_s < C\) ,即樣本在間隔邊界上時,\(\xi_s = 0\) 。因而不同於硬間隔 svm, 軟間隔求 \(b\) 選擇的支持向量不是任一支持向量,而是必須滿足條件的支持向量,這其實是一種人為制定的求 \(b\) 的規則。
當然也可以對此類支持向量求平均得到 \(b\):
其中 \(SV_{<C}\) 表示滿足 \(0 < \alpha_s<C\) 的支持向量。
核函數(非線性svm)
前面展示的硬間隔和軟間隔 svm 主要是用於處理線性分類問題,然而現實中很多分類問題是非線性的,如下圖所示,無論怎樣一個線性超平面都無法很好地將樣本點分類:

所以在此引入核函數(kernel function),構造非線性svm,如下圖所示,左圖使用的是多項式核函數,右圖使用的是高斯核函數,二者均能將樣本點很好地分類:

核函數的主要作用是將樣本從原始空間映射到一個更高維的特征空間,使得樣本在這個特征空間內線性可分。下圖顯示原來在二維空間不可分的兩類樣本點,在映射到三維空間后變為線性可分 :

但回到原來的二維空間中,決策邊界就變成非線性的了:

核函數是如何將原始空間映射到高維的特征空間的? 下面先舉個例子:
假設做一個2維到3維的映射,\(\large{\Phi}: \;\mathbb{R}^2 \longrightarrow \mathbb{R}^3\)
求 \(\phi(\boldsymbol{a})\) 和 \(\phi(\boldsymbol{b})\) 的內積:
可以看出轉換后向量的內積等於原向量內積的平方,即 \(\phi (\textbf{a})^T \phi(\textbf{b}) = (\textbf{a}^T \textbf{b})^2\) 。
函數 \(\kappa(\textbf{a}, \textbf{b}) = (\textbf{a}^T\textbf{b})^2\) 被成為二次多項核函數,於是如果想計算高維特征空間的內積 \(\phi(\textbf{a})^T \phi(\textbf{b})\),我們只需計算核函數,即原向量內積的平方 \((\textbf{a}^T\textbf{b})^2\) 就可以了。這樣做的好處有:
-
將樣本點由原始空間映射到高維空間后,有大概率使原來線性不可分的問題變為線性可分。
-
核函數的計算是在低維特征空間計算的,它避免了在高維特征空間下計算內積的超高計算量。
下圖也能看出在原始空間和高維空間下計算量的巨大差異:

接下來對問題作正式的定義: 數據在原始特征空間 \(\mathbb{R}^d\) 不是線性可分的,則希望通過一個映射 \(\large{\Phi}: \;\mathbb{R}^d \longrightarrow \mathbb{R}^\tilde{d}\) ,使得數據在新的特征空間 \(\mathbb{R}^\tilde{d}\) 中線性可分,則軟間隔 svm 基本型變為:
找到一個核函數 \(\mathcal{K} (\boldsymbol{x}_i, \boldsymbol{x}_j) = \phi(\boldsymbol{x}_i)^{\top} \phi(\boldsymbol{x}_j)\) ,則相應的對偶型轉化為核函數型:
這樣使得計算復雜度由 \(\mathcal{O}(\tilde{d})\) 降為 \(\mathcal{O} (d)\) 。求解后的分離超平面為:
其中 \(SV\) 代表所有支持向量的集合。這樣我們就能以較小的計算量解決非線性分類問題,甚至都不需要知道低維空間的數據是怎樣映射到高維空間的,只需要在原來的低維空間計算核函數就行了。
常見核函數比較:
名稱&emsp | 形式 &emsp&emsp&emsp&emsp&emsp | 優點 | 缺點 |
---|---|---|---|
線性核 | \(\kappa(\boldsymbol{x}_i, \boldsymbol{x}_j) = \boldsymbol{x}_i^{\top}\boldsymbol{x}_j\) | 速度快,可解釋性強。 | 無法解決非線性可分問題。 |
多項式核 | \(\kappa(\boldsymbol{x}_i, \boldsymbol{x}_j) = (\lambda \, \boldsymbol{x}_i^{\top}\boldsymbol{x}_j + \eta)^d\) | 比線性核更一般,\(d\) 直接描述了被映射空間的復雜度。 | 參數多 (有 \(\lambda, \eta, d\) 要選),且當 \(d\) 很大時會導致計算不穩定。 |
RBF 核 | \(\kappa(\boldsymbol{x}_i, \boldsymbol{x}_j) = \text{exp} \left(- \frac{\|\boldsymbol{x}_i- \boldsymbol{x}_j\|^2}{2 \sigma^2} \right)\) | 只有一個參數,無計算不穩定問題,擬合能力強。 | 可解釋性差,計算慢,易過擬合。 |
由於 RBF 核是目前最主流的核函數,所以在這里以其舉例介紹:
RBF 核函數全稱徑向基函數 (Radial Basis Function),其表達式 \(\kappa(\boldsymbol{x}_i, \boldsymbol{x}_j) = \text{exp} \left(- \frac{||\boldsymbol{x}_i- \boldsymbol{x}_j||^2}{2 \sigma^2} \right)\) 亦可寫為 \(\kappa(\boldsymbol{x}_i, \boldsymbol{x}_j) =\text{exp} (- \gamma||\boldsymbol{x}_i- \boldsymbol{x}_j||^2)\) ,范圍為 \((0, 1]\) ,其中 \(\gamma = \frac{1}{2\sigma^2}\) 。
RBF 核可理解為兩個樣本點的相似程度,若兩點 \((\boldsymbol{x}_i, \boldsymbol{x}_j)\) 的相似程度很大,則距離 \(||\boldsymbol{x}_i - \boldsymbol{x}_j||^2\) 越小,使得 \(\text{exp} (- \gamma||\boldsymbol{x}_i- \boldsymbol{x}_j||^2)\) 越大,這意味着高斯核具有“局部(local)”特征,只有相對鄰近的樣本點會對測試點的分類產生較大作用。 \(\gamma > 0\),即為 scikit-learn 中的 svm 超參數 \(\gamma\),\(\gamma\) 越大,意味着兩個點只有相當接近時才會被判為相似,這樣決策邊界會變得較為扭曲,容易過擬合,因為只取決於較少的幾個樣本點。相反,\(\gamma\) 越小,大量的點被判為近似,在模型中起了作用,因而導致模型變得簡單,容易欠擬合。
RBF 核還有個吸引人的特性,那就是可以從原始空間映射到無限維特征空間,下面舉例說明式如何做到的: 設 \(\sigma = \sqrt{\frac12}\) ,則 RBF 核的轉換如下 (兩種顏色分別表示 \(\boldsymbol{x}_i\) 和 \(\boldsymbol{x}_j\) 對應的部分):
因而映射的無限維空間為 \(\phi(\boldsymbol{x}) = \text{exp}(-||\boldsymbol{x}||^2) \begin{bmatrix} 1 \\ \sqrt{\frac{2}{1!}}x \\ \sqrt{\frac{2^2}{2!}}x^2 \\ \vdots \\ \sqrt{\frac{x^\infty}{\infty!}}x^\infty \end{bmatrix}\)
上面的 \((2.2)\) 式到 \((2.3)\) 式使用了 \(e^x\) 的泰勒展開,泰勒公式的簡單解釋就是用多項式函數去逼近原函數,因為用多項式函數往往求解更加容易,而多項式中各項的系數則為原函數在某一點的n階導數值除以n階乘。
已知函數 \(f(x)\) 在 \(x=x_0\) 處 \(n\) 階可導,那么:
例如,\(x_0 = 0, \;\; f(x) = e^x\)時,\(e^x = \sum\limits_{n=0}^{\infty}\frac{x^n}{n!} = 1+x+\frac{x^2}{2!} + \frac{x^3}{3!} + \cdots\) , 明白了這個后相信不難理解上面 RBF 核的推導。
/