原文:tf.nn.softmax

作用:softmax函数的作用就是归一化。 输入:全连接层 往往是模型的最后一层 的值,一般代码中叫做logits 输出:归一化的值,含义是属于该位置的概率,一般代码叫做probs,例如输出 . , . , . , . ,那么这个样本最可能属于第 个位置,也就是第 类。这是由于logits的维度大小就设定的任务的类别,所以第 个位置就代表第 类。softmax函数的输出不改变维度的大小。 用途: ...

2020-01-20 17:46 0 1116 推荐指数:

查看详情

[TensorFlow] tf.nn.softmax_cross_entropy_with_logits的用法

在计算loss的时候,最常见的一句话就是tf.nn.softmax_cross_entropy_with_logits,那么它到底是怎么做的呢? 首先明确一点,loss是代价值,也就是我们要最小化的值 tf.nn.softmax ...

Wed Mar 22 00:26:00 CST 2017 0 10152
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM