TensorFlow中tf.nn模塊


Activation Functions(激活函數)

  • tf.nn.relu(features, name=None)    #max(features, 0)
  • tf.nn.relu6(features, name=None)    #min(max(features, 0), 6)
  • tf.nn.softplus(features, name=None)    #log(exp(features) + 1)
  • tf.nn.dropout(x, keep_prob, noise_shape=None, seed=None, name=None)   #計算dropout
  • tf.nn.bias_add(value, bias, name=None)   #加偏置
  • tf.sigmoid(x, name=None)   #  1/(1+exp(-x))
  • tf.tanh(x, name=None)  #雙曲正切曲線   (exp(x)-exp(-x))/(exp(x)+exp(-x))

Convolution(卷積運算)

  • tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu=None, name=None)   #4D input
  • tf.nn.depthwise_conv2d(input, filter, strides, padding, name=None)   #5D input
  • tf.nn.separable_conv2d(input, depthwise_filter, pointwise_filter, strides, padding, name=None)   #執行一個深度卷積,分別作用於通道上,然后執行一個混合通道的點卷積

Pooling(池化)

  • tf.nn.avg_pool(value, ksize, strides, padding, name=None)   #平均值池化
  • tf.nn.max_pool(value, ksize, strides, padding, name=None)   #最大值池化
  • tf.nn.max_pool_with_argmax(input, ksize, strides, padding, Targmax=None, name=None)   #放回最大值和扁平索引

Normalization(標准化)

  • tf.nn.l2_normalize(x, dim, epsilon=1e-12, name=None)   #L2范式標准化
  • tf.nn.local_response_normalization(input, depth_radius=None, bias=None, alpha=None, beta=None, name=None)   #計算局部數據標准化,每個元素被獨立標准化
  • tf.nn.moments(x, axes, name=None)   #平均值和方差

Losses(損失)

  • tf.nn.l2_loss(t,name=None)  #sum(t^2)/2

Classification(分類)

  • tf.nn.sigmoid_cross_entropy_with_logits(logits, targets, name=None)  #交叉熵
  • tf.nn.softmax(logits, name=None)  #softmax[i, j] = exp(logits[i, j]) / sum_j(exp(logits[i, j]))
  • tf.nn.log_softmax(logits, name=None)  #logsoftmax[i, j] = logits[i, j] - log(sum(exp(logits[i])))
  • tf.nn.softmax_cross_entropy_with_logits(logits, labels, name=None)  #計算logits和labels的softmax交叉熵

RNN

  • tf.nn.rnn(cell, inputs, initial_state=None, dtype=None, sequence_length=None, scope=None)  #基於RNNCell類的實例cell建立循環神經網絡
  • tf.nn.dynamic_rnn(cell, inputs, sequence_length=None, initial_state=None, dtype=None, parallel_iterations=None, swap_memory=False, time_major=False, scope=None)  #基於RNNCell類的實例cell建立動態循環神經網絡與一般rnn不同的是,該函數會根據輸入動態展開返回(outputs,state)
  • tf.nn.state_saving_rnn(cell, inputs, state_saver, state_name, sequence_length=None, scope=None)  #可儲存調試狀態的RNN網絡
  • tf.nn.bidirectional_rnn(cell_fw, cell_bw, inputs,initial_state_fw=None, initial_state_bw=None, dtype=None,sequence_length=None, scope=None)   #雙向RNN, 返回一個3元組tuple (outputs, output_state_fw, output_state_bw)

##未完待續


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM