幾種常見損失函數


損失函數 Loss Function 也可稱為代價函數 Cost Function,用於衡量預測值與實際值的偏離程度。我們機器學習的目標就是希望預測值與實際值偏離較小,也就是希望損失函數較小,也就是所謂的最小化損失函數。

幾種常見的損失函數如下:

1.0-1損失 :可用於分類問題,該函數用戶衡量誤分類的數量,但是由於該函數由於是非凸的,在最優化過程中求解不方便,有階躍,不連續,所以使用不多。

2.絕對值損失:

3.平方損失:常用於線性回歸

4.對數損失Log Loss:常用於模型輸出每一類概率的分類器,比如邏輯斯蒂回歸。也叫交叉上損失Cross-entropy Loss(交    叉熵用於衡量兩個概率分布的差異性)

5.Hinge損失函數:常用於SVM

 

對於回歸問題,常用平方損失和絕對值損失

對於分類問題,常用Logloss和hinge loss

 

Logistic使用Log Loss 不使用平方損失的原因:

平方損失會導致損失函數是theta的非凸函數,不利於求解,因為非凸函數會存在許多的局部最優解。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM