keras模塊學習之-激活函數(activations)--筆記


本筆記由博客園-圓柱模板 博主整理筆記發布,轉載需注明,謝謝合作!

   每一個神經網絡層都需要一個激活函數,例如一下樣例代碼:

           

from keras.layers.core import Activation, Dense

model.add(Dense(64))
model.add(Activation('tanh'))


或把上面兩行合並為:
model.add(Dense(64, activation='tanh'))

  可以選擇的激活函數有: 
linear、sigmoid、hard_sigmoid、tanh、softplus、relu、 softplus,softmax、softsign 
還有一些高級激活函數,比如如PReLU,LeakyReLU等


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM