各種損失函數的特點及選擇


分類損失

二分類損失

二分類交叉熵損失(對數似然損失,邏輯回歸損失)

\[L(Y,f(x))=-\frac{1}{n}\sum [y\ln f(x)+(1-y)\ln (1-f(x))] \]

多分類損失

多分類交叉熵損失

\[L(Y,f(x))=-\frac{1}{n}\sum y_i ln f(x) \]

常於softmax層一起使用

回歸損失

mae(L1 loss)與 mse(L2 loss)

mae

\[L(Y,f(x))=|Y-f(x)| \]

mse

\[L(Y,f(x))=\sum (Y-f(x))^2 \]

mae loss 與mse loss的區別與選擇
簡而言之,在模型非常優秀的前提下,mae和mse並沒有太大的差別,因為誤差都很小。但是,當模型性能並不是很好的時候,mse因為多了平方,會導致loss變得很大,所以mse相對於mae對異常值會比較敏感,傾向於給異常值更多的loss,同時,它的特點相比於深度神經網絡這種很小的梯度變化而言,loss的變大更有利於梯度的更新。同時,如果訓練數據被異常點所污染,那么MAE損失就更好用。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM