tf.reduce_mean() || tf.contrib.rnn.BasicRnnCell || tf.contrib.rnn.BasicLSTMCell || tf.reshape()


tf.reduce_mean()

(或tf.reduce_max()一個是求平均值,一個是求最大值)

# 'x' is [[1., 2.]
#         [3., 4.]]

x是一個2維數組,分別調用reduce_*函數如下:

首先求平均值:

tf.reduce_mean(x) ==> 2.5 #如果不指定第二個參數,那么就在所有的元素中取平均值
tf.reduce_mean(x, 0) ==> [2.,  3.] #指定第二個參數為0,則第一維的元素取平均值,即每一列求平均值
tf.reduce_mean(x, 1) ==> [1.5,  3.5] #指定第二個參數為1,則第二維的元素取平均值,即每一行求平均值

同理,還可用tf.reduce_max()求最大值等

 

tf.contrib.rnn.BasicRnnCell

BasicRNNCell是最基本的RNN cell單元。 
輸入參數:
num_units:RNN層神經元的個數 input_size(該參數已被棄用) activation: 內部狀態之間的激活函數 reuse: Python布爾值, 描述是否重用現有作用域中的變量

 

 

tf.contrib.rnn.BasicLSTMCell

BasicLSTMCell類是最基本的LSTM循環神經網絡單元。 
輸入參數:
num_units: LSTM cell層中的單元數 
forget_bias: forget gates中的偏置 
state_is_tuple: 還是設置為True吧, 返回 (c_state , m_state)的二元組 
activation: 狀態之間轉移的激活函數 
reuse: Python布爾值, 描述是否重用現有作用域中的變量

 

 

tf.reshape()

reshape即把矩陣的形狀變一下
看一下例子:

tensor = tf.constant([1, 2, 3, 4, 5, 6, 7,8])

 sess.run(tf.initialize_all_variables())
#[1 2 3 4 5 6 7 8]

tensorReshape = tf.reshape(tensor,[2,4])
#[[1 2 3 4]
#[5 6 7 8]]

tensorReshape = tf.reshape(tensor,[1,2,4])
#[[[1 2 3 4]
#[5 6 7 8]]]

tensorReshape = tf.reshape(tensor,[-1,2,2])
#[[[1 2]
#[3 4]]

#[[5 6]
#[7 8]]]
#所以-1代表的含義是不用我們自己指定這一維的大小,函數會自動計算,但列表中只能存在一個-1
#比如:

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM