tf.contrib.layers.fully_connected參數筆記


tf.contrib.layers.fully_connected

添加完全連接的圖層。

tf.contrib.layers.fully_connected(
    inputs,
    num_outputs,
    activation_fn=tf.nn.relu,
    normalizer_fn=None,
    normalizer_params=None,
    weights_initializer=initializers.xavier_initializer(),
    weights_regularizer=None,
    biases_initializer=tf.zeros_initializer(),
    biases_regularizer=None,
    reuse=None,
    variables_collections=None,
    outputs_collections=None,
    trainable=True,
    scope=None
)

fully_connected創建一個名為的變量weights,表示一個完全連接的權重矩陣,乘以它inputs產生一個 Tensor隱藏單位。

如果normalizer_fn提供了a (例如 batch_norm),則應用它。否則,如果normalizer_fn為None且biases_initializer提供了a,

biases則將創建變量並添加隱藏單位。最后,如果activation_fn不是None,它也會應用於隱藏單位。

 

  • inputs:至少等級2的張量和最后一個維度的靜態值; [batch_size, depth][None, None, None, channels]
  • num_outputs:整數或長整數,圖層中的輸出單位數。
  • activation_fn:激活功能。默認值是ReLU功能。將其明確設置為“無”以跳過它並保持線性激活。
  • normalizer_fn:使用標准化功能代替biases如果 normalizer_fn提供biases_initializerbiases_regularizer則忽略並且biases不創建也不添加。沒有規范化器功能,默認設置為“無”
  • normalizer_params:規范化函數參數。
  • weights_initializer:權重的初始化程序。
  • weights_regularizer:可選的權重正則化器。
  • biases_initializer:偏見的初始化程序。如果沒有跳過偏見。
  • biases_regularizer:偏見的可選正則化器。
  • reuse:是否應重用圖層及其變量。必須給出能夠重用層范圍的能力。
  • variables_collections:所有變量的集合的可選列表或包含每個變量的不同集合列表的字典。
  • outputs_collections:用於添加輸出的集合。
  • trainable:如果True還將變量添加到圖表集合中 GraphKeys.TRAINABLE_VARIABLES(請參閱tf.Variable)。
  • scope:variable_scope的可選范圍。

 

 參考: https://tensorflow.google.cn/api_docs/python/tf/contrib/layers/fully_connected


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM