我們先來理解理解Softmax:任意事件發生的概率都在 0 和 1 之間,且總有某一個事件發生 (概率的和為 1 )。如果將分類問題中“ 一個樣例屬於某一個類別”看成一個概率事件,
那么訓練數據的正確答案就符合一個概率分布。因為事件“一個樣例屬於不正確的類別”的概率為0,
而“ 一個樣例屬於正確的類別”的概率為 1。如何將神經網絡前向傳播得到的結果也變成
概率分布呢? Softmax 回歸就是一個非常常用的方法 。
Softmax 回歸本身可以作為 一個學習算法來優化分類結果,但在TensorFlow中, softmax
回歸的參數被去掉了,它只是一層額外的處理層,將神經網絡的輸出變成一個概率分布 。 總結:softmax就是把輸出結果變成概率分布。
TensorFlow實現Softmax:result = tf.nn.softmax( tf.matmul(x,w)+b ),其中 tf.matmul(x,w)+b為神經網絡的輸出結果。