TensorFlow實現Softmax


我們先來理解理解Softmax:任意事件發生的概率都在 0 和 1 之間,且總有某件發生 概率的和為 )。如果將分類問題中“ 個樣例屬於某個類別”看成個概率件,

那么訓練數據的正確答案就符合個概率分布。因為事件“個樣例屬於不正確的類別”的概率為0,
而“ 個樣例屬於正確的類別”的概率為 1。如何將神經網絡前向傳播得到的結果也變成
概率分布呢? Softmax 回歸就是個非常常用的方法
Softmax 回歸本身可以作為 個學習算法來優化分類結果,但在TensorFlow中, softmax
回歸的參數被去掉了,它只是層額外的處理層,將神經網絡的輸出變成個概率分布 。 總結:softmax就是把輸出結果變成概率分布。

 

TensorFlow實現Softmax:result = tf.nn.softmax( tf.matmul(x,w)+b ),其中 tf.matmul(x,w)+b為神經網絡的輸出結果。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM