原文:神經網絡為什么要用sigmoid函數?為什么要映射到0-1之間?

對於深度神經網絡,中間的隱層的輸出必須有一個激活函數。否則多個隱層的作用和沒有隱層相同。這個激活函數不一定是sigmoid,常見的有sigmoid tanh relu等。 對於二分類問題,輸出層是sigmoid函數。這是因為sigmoid函數可以把實數域光滑的映射到 , 空間。函數值恰好可以解釋為屬於正類的概率 概率的取值范圍是 。另外,sigmoid函數單調遞增,連續可導,導數形式非常簡單,是 ...

2016-11-12 17:17 0 7046 推薦指數:

查看詳情

對於分類問題的神經網絡最后一層的函數sigmoid、softmax與損失函數

對於分類問題的神經網絡最后一層的函數做如下知識點總結: sigmoid和softmax一般用作神經網絡的最后一層做分類函數(備注:sigmoid也用作中間層做激活函數); 對於類別數量大於2的分類問題,如果每個類別之間互斥,則選用softmax函數(例如:類別為牡丹花、玫瑰花、菊花 ...

Thu Sep 27 21:29:00 CST 2018 0 4203
神經網絡中的激活函數具體是什么?為什么ReLu要好過於tanh和sigmoid function?(轉)

為什么引入激活函數? 如果不用激勵函數(其實相當於激勵函數是f(x) = x),在這種情況下你每一層輸出都是上層輸入的線性函數,很容易驗證,無論你神經網絡有多少層,輸出都是輸入的線性組合,與沒有隱藏層效果相當,這種情況就是最原始的感知機(Perceptron)了。 正因為上面的原因,我們決定 ...

Fri Aug 31 03:46:00 CST 2018 0 1144
神經網絡激活函數softmax,sigmoid,tanh,relu總結

神經網絡激活函數softmax,sigmoid,tanh,relu總結 一、總結 一句話總結: 常見激活函數:softmax、sigmoid、tanh、relu 二、【神經網絡】激活函數softmax,sigmoid,tanh,relu總結 轉自或參考:【神經網絡】激活函數 ...

Tue Aug 04 13:35:00 CST 2020 0 1074
 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM