本筆記由博客園-圓柱模板 博主整理筆記發布,轉載需注明,謝謝合作!
每一個神經網絡層都需要一個激活函數,例如一下樣例代碼:
from keras.layers.core import Activation, Dense model.add(Dense(64)) model.add(Activation('tanh')) 或把上面兩行合並為: model.add(Dense(64, activation='tanh'))
可以選擇的激活函數有:
linear、sigmoid、hard_sigmoid、tanh、softplus、relu、 softplus,softmax、softsign
還有一些高級激活函數,比如如PReLU,LeakyReLU等