首先:
support vector classify(SVC)支持分類機做二分類的,找出分類面,解決分類問題
support vector regression(SCR)支持回歸機做曲線擬合、函數回歸 ,做預測,溫度,天氣,股票
這些都會用於數據挖掘、文本分類、語音識別、生物信息,具體問題具體分析
其中:
C-Support Vector Classi cation和v-Support Vector Classi cation區別:
C-SVC:參數C[0,無窮大]
v-SVC:使用參數v[0,1]用來控制支持向量的數量和訓練錯誤。
One-class SVM是用來估計數據的分布的(Distribution Estimation)
e-Support Vector Regression。
v-Support Vector Regression增加了控制支持向量參數的參數
每個對應不同的Formulations
One-class SVM是用來估計數據的分布的(Distribution Estimation)
e-Support Vector Regression。
v-Support Vector Regression增加了控制支持向量參數的參數
每個對應不同的Formulations
從目標函數和約束條件上的區別:
SVC:

SVR:

約束中松弛變量
與懲罰項的關系。

最后總結:
分類是找一個平面,邊界上點到平面的距離最遠,回歸是讓每個點到回歸線的距離最小。SVM 回歸機引入一個 ε-不敏感損失函數作 為損失函數