tf.contrib.layers.fully_connected
添加完全連接的圖層。
tf.contrib.layers.fully_connected(
inputs,
num_outputs,
activation_fn=tf.nn.relu,
normalizer_fn=None,
normalizer_params=None,
weights_initializer=initializers.xavier_initializer(),
weights_regularizer=None,
biases_initializer=tf.zeros_initializer(),
biases_regularizer=None,
reuse=None,
variables_collections=None,
outputs_collections=None,
trainable=True,
scope=None
)
fully_connected
創建一個名為的變量weights
,表示一個完全連接的權重矩陣,乘以它inputs
產生一個 Tensor
隱藏單位。
如果normalizer_fn
提供了a (例如 batch_norm
),則應用它。否則,如果normalizer_fn
為None且biases_initializer
提供了a,
biases
則將創建變量並添加隱藏單位。最后,如果activation_fn
不是None
,它也會應用於隱藏單位。
inputs
:至少等級2的張量和最后一個維度的靜態值; 即[batch_size, depth]
,[None, None, None, channels]
。num_outputs
:整數或長整數,圖層中的輸出單位數。activation_fn
:激活功能。默認值是ReLU功能。將其明確設置為“無”以跳過它並保持線性激活。normalizer_fn
:使用標准化功能代替biases
。如果normalizer_fn
提供biases_initializer
,biases_regularizer
則忽略並且biases
不創建也不添加。沒有規范化器功能,默認設置為“無”normalizer_params
:規范化函數參數。weights_initializer
:權重的初始化程序。weights_regularizer
:可選的權重正則化器。biases_initializer
:偏見的初始化程序。如果沒有跳過偏見。biases_regularizer
:偏見的可選正則化器。reuse
:是否應重用圖層及其變量。必須給出能夠重用層范圍的能力。variables_collections
:所有變量的集合的可選列表或包含每個變量的不同集合列表的字典。outputs_collections
:用於添加輸出的集合。trainable
:如果True
還將變量添加到圖表集合中GraphKeys.TRAINABLE_VARIABLES
(請參閱tf.Variable)。scope
:variable_scope的可選范圍。
參考: https://tensorflow.google.cn/api_docs/python/tf/contrib/layers/fully_connected