原文:[翻译] softmax和softmax_cross_entropy_with_logits的区别

翻译自:https: stackoverflow.com questions whats the difference between softmax and softmax cross entropy with logits 问题: 在Tensorflow官方文档中,他们使用一个关键词,称为logits。这个logits是什么 比如说在API文档中有很多方法 methods ,经常像下面这么写 ...

2017-11-04 19:20 0 1661 推荐指数:

查看详情

softmax_cross_entropy_with_logits

softmax_cross_entropy_with_logits 觉得有用的话,欢迎一起讨论相互学习~ 函数定义 解释 这个函数的作用是计算 logitssoftmax 函数激活之后的交叉熵。 对于每个独立的分类任务,这个函数是去度量概率误差 ...

Sun Aug 27 00:16:00 CST 2017 0 1708
sparse_softmax_cross_entropy_with_logits

sparse_softmax_cross_entropy_with_logits 觉得有用的话,欢迎一起讨论相互学习~ 定义 说明 此函数大致与tf_nn_softmax_cross_entropy_with_logits的计算方式相同, 适用于每个类别相互独立且排斥 ...

Sun Aug 27 00:28:00 CST 2017 0 6150
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM