tf.nn.softmax


tf.nn.softmax(
    logits,
    axis = None,
    name = None
    dim = None
)
  • 作用:softmax函数的作用就是归一化。
  • 输入:全连接层(往往是模型的最后一层)的值,一般代码中叫做logits
  • 输出:归一化的值,含义是属于该位置的概率,一般代码叫做probs,例如输出[0.4, 0.1, 0.2, 0.3],那么这个样本最可能属于第0个位置,也就是第0类。这是由于logits的维度大小就设定的任务的类别,所以第0个位置就代表第0类。softmax函数的输出不改变维度的大小。
  • 用途:如果做单分类的问题,那么输出的值就取top1(最大, argmax); 如果做多分类问题,那么输出的值就取topN

例子:

 

 输出:

 

从结果中分析出array最有可能属于第0类(一共四类)

 

如果想进一步了解softmax的原理,可以参考这篇文章:https://zhuanlan.zhihu.com/p/93054123


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM