首页 > Web开发 > 详细

mxnet & pytorch 交叉熵损失

时间:2020-06-22 16:44:33      阅读:96      评论:0      收藏:0      [点我收藏+]

对比 pytorch: nn.CrossEntropyLoss()  & mxnet: gluon.loss.SoftmaxCrossEntropyLoss()

技术分享图片

 

 技术分享图片

 

 

一般而言默认用法即可:

pytorch:

d=np.array([[1,2,3],[54,45,2],[67,4,2]])
l=np.array([0,2,1])
print(nn.CrossEntropyLoss(reduction=‘mean‘)(torch.Tensor(d),torch.Tensor(l).long()))    # 默认求均值
print(nn.CrossEntropyLoss(reduction=‘none‘)(torch.Tensor(d),torch.Tensor(l).long()))    # 不作任何处理
tensor(39.1359)
tensor([ 2.4076, 52.0001, 63.0000])

 

mxnet:

d=np.array([[1,2,3],[54,45,2],[67,4,2]])
l=np.array([0,2,1])
print(gluon.loss.SoftmaxCrossEntropyLoss(from_logits=False)(mx.nd.array(d), mx.nd.array(l)).mean())       # 手动求均值 
print(gluon.loss.SoftmaxCrossEntropyLoss(from_logits=False)(mx.nd.array(d), mx.nd.array(l)))              # 默认不作任何处理
[39.13591]
<NDArray 1 @cpu(0)>
[ 2.407606 52.000122 63.      ]
<NDArray 3 @cpu(0)>

 

mxnet & pytorch 交叉熵损失

原文:https://www.cnblogs.com/king-lps/p/13177369.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!