原文:[TensorFlow] tf.nn.softmax_cross_entropy_with_logits的用法

在计算loss的时候,最常见的一句话就是tf.nn.softmax cross entropy with logits,那么它到底是怎么做的呢 首先明确一点,loss是代价值,也就是我们要最小化的值 tf.nn.softmax cross entropy with logits logits, labels, name None 除去name参数用以指定该操作的name,与方法有关的一共两个参数: ...

2017-03-21 16:26 0 10152 推荐指数:

查看详情

 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM