首页 > 其他 > 详细

各种损失函数的特点及选择

时间:2020-09-02 08:43:45      阅读:145      评论:0      收藏:0      [点我收藏+]

分类损失

二分类损失

二分类交叉熵损失(对数似然损失,逻辑回归损失)

\[L(Y,f(x))=-\frac{1}{n}\sum [y\ln f(x)+(1-y)\ln (1-f(x))] \]

多分类损失

多分类交叉熵损失

\[L(Y,f(x))=-\frac{1}{n}\sum y_i ln f(x) \]

常于softmax层一起使用

回归损失

mae(L1 loss)与 mse(L2 loss)

mae

\[L(Y,f(x))=|Y-f(x)| \]

mse

\[L(Y,f(x))=\sum (Y-f(x))^2 \]

mae loss 与mse loss的区别与选择
简而言之,在模型非常优秀的前提下,mae和mse并没有太大的差别,因为误差都很小。但是,当模型性能并不是很好的时候,mse因为多了平方,会导致loss变得很大,所以mse相对于mae对异常值会比较敏感,倾向于给异常值更多的loss,同时,它的特点相比于深度神经网络这种很小的梯度变化而言,loss的变大更有利于梯度的更新。同时,如果训练数据被异常点所污染,那么MAE损失就更好用。

各种损失函数的特点及选择

原文:https://www.cnblogs.com/zhouyc/p/13599548.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!