對SVC和SVR的理解


首先:
support vector classify(SVC)支持分類機做二分類的,找出分類面,解決分類問題
support vector regression(SCR)支持回歸機做曲線擬合、函數回歸 ,做預測,溫度,天氣,股票
這些都會用於數據挖掘、文本分類、語音識別、生物信息,具體問題具體分析
其中:
C-Support Vector Classi cation和v-Support Vector Classi cation區別:
C-SVC:參數C[0,無窮大]
v-SVC:使用參數v[0,1]用來控制支持向量的數量和訓練錯誤。
One-class SVM是用來估計數據的分布的(Distribution Estimation)
e-Support Vector Regression。
v-Support Vector Regression增加了控制支持向量參數的參數

每個對應不同的Formulations
從目標函數和約束條件上的區別:
SVC:

 

SVR:
 

 

 
約束中松弛變量 與懲罰項的關系。
 
最后總結:
分類是找一個平面,邊界上點到平面的距離最遠,回歸是讓每個點到回歸線的距離最小。SVM 回歸機引入一個 ε-不敏感損失函數作 為損失函數
 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM