各种损失函数的特点及选择


分类损失

二分类损失

二分类交叉熵损失(对数似然损失,逻辑回归损失)

\[L(Y,f(x))=-\frac{1}{n}\sum [y\ln f(x)+(1-y)\ln (1-f(x))] \]

多分类损失

多分类交叉熵损失

\[L(Y,f(x))=-\frac{1}{n}\sum y_i ln f(x) \]

常于softmax层一起使用

回归损失

mae(L1 loss)与 mse(L2 loss)

mae

\[L(Y,f(x))=|Y-f(x)| \]

mse

\[L(Y,f(x))=\sum (Y-f(x))^2 \]

mae loss 与mse loss的区别与选择
简而言之,在模型非常优秀的前提下,mae和mse并没有太大的差别,因为误差都很小。但是,当模型性能并不是很好的时候,mse因为多了平方,会导致loss变得很大,所以mse相对于mae对异常值会比较敏感,倾向于给异常值更多的loss,同时,它的特点相比于深度神经网络这种很小的梯度变化而言,loss的变大更有利于梯度的更新。同时,如果训练数据被异常点所污染,那么MAE损失就更好用。


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM