TensorFlow(1)-基礎知識點總結


1、 tensorflow簡介

Tensorflow 是 google 開源的機器學習工具,在2015年11月其實現正式開源,開源協議Apache 2.0。

Tensorflow采用數據流圖(data flow graphs)來計算, 所以首先我們得創建一個數據流流圖,然后再將我們的數據(數據以張量(tensor)的形式存在)放在數據流圖中計算. 節點(Nodes)在圖中表示數學操作,圖中的邊(edges)則表示在節點間相互聯系的多維數據數組, 即張量(tensor).訓練模型時tensor會不斷的從數據流圖中的一個節點flow到另一節點, 這就是TensorFlow名字的由來.

張量(Tensor):張量有多種. 零階張量為 純量或標量 (scalar) 也就是一個數值. 比如 [1],一階張量為 向量 (vector), 比如 一維的 [1, 2, 3],二階張量為 矩陣 (matrix), 比如 二維的 [[1, 2, 3],[4, 5, 6],[7, 8, 9]],以此類推, 還有三維以上的多維。

2、 tensorflow基礎

實際上編寫tensorflow可以總結為兩步.

(1)組裝一個graph;

(2)使用session去執行graph中的operation。

2.1、概念說明

下面是 graph , session , operation , tensor 四個概念的簡介。

Tensor:類型化的多維數組,圖的邊;

Operation:執行計算的單元,圖的節點;

Graph:一張有邊與點的圖,其表示了需要進行計算的任務;

Session:稱之為會話的上下文,用於執行圖。

2.2、一個例子:

import tensorflowas tf

import numpyas np

#tensorflow中大部分數據是float32

# create real data 用numpy生成訓練數據

x_data= np.random.rand(100).astype(np.float32)

y_data= x_data* 0.1 + 0.3

### create tensorflow structure start! ###

# 定義變量 用tf.Variable來定義變量w和b

Weights= tf.Variable(tf.random_uniform([1], -1.0, 1.0))

biases= tf.Variable(tf.zeros([1]))

# 定義如何計算預測值

y= Weights* x_data+ biases

# 損失函數 平方損失函數

loss= tf.reduce_mean(tf.square(y- y_data))

# 梯度下降優化器,定義learning rate  optimizer = 優化器

optimizer= tf.train.GradientDescentOptimizer(0.5)

# 訓練目標是損失最小化

train= optimizer.minimize(loss)

# 初始化變量, 即初始化weights和biases

init= tf.global_variables_initializer()

# 創建session,進行參數初始化

sess= tf.Session()

sess.run(init)

# 開始訓練200步, 每20步輸出一下兩個參數

for stepin range(201):

    sess.run(train)

if step% 20 == 0:

        print(step, sess.run(Weights), sess.run(biases))

### create tensorflow structure end ###

在上面的例子中,我們想要預測的方程式y=0.1*x + 0.3,給定訓練樣本,通過梯度下降法來預測參數W和偏置b,我們使用numpy生成了我們的訓練數據:

x_data = np.random.rand(100).astype(np.float32)
y_data = x_data * 0.1 + 0.3

隨后,我們使用tf.Variable定義了我們的變量Weights和biases(以下簡稱w和b),Weights通過一個均勻分布隨機產生,而bias則設置為0,同時二者的形狀均為1維,即就是一個數:

Weights = tf.Variable(tf.random_uniform([1],-1.0,1.0))
biases = tf.Variable(tf.zeros([1]))

好了,有了變量,我們想要學習w和b,只需要用訓練數據x來得到預測值,最小化預測值和實際值的差距就好,所以,我們定義了損失函數為平方損失函數,並通過0.5學習率的梯度下降法來進行參數調整:

#如何計算預測值

y = Weights * x_data + biases# loss functionloss = tf.reduce_mean(tf.square(y-y_data))

#梯度下降優化器,定義learning rate

optimizer = tf.train.GradientDescentOptimizer(0.5)

#訓練目標是loss最小化

train = optimizer.minimize(loss)

在tf中定義的變量都需要經過初始化的操作,所以我們定義了一個初始化變量的操作:

#初始化變量,即初始化 Weights 和 biases

init = tf.global_variables_initializer()

接下來我們就可以開始訓練了,訓練必須創建一個session,通過run方法對指定的節點進行訓練,這里一定要注意先要對參數進行初始化,否則后面是無法開始訓練的。想要觀察訓練過程中的參數變化的話,也需要通過run方法:


# 創建session,進行參數初始化

# 開始訓練200步, 每20步輸出一下兩個參數

for step in range(201):

    sess.run(train)

    if step% 20 == 0:

        print(step, sess.run(Weights), sess.run(biases))

這里我們直接run的是train這一步,想要運行這一步,必須先得到optimizier和loss,想要得到loss就要得到預測值....依次往前推,所以run(train)實際上就是對整個tensor流圖的訓練。

最后貼出來看一下輸出結果:

0 [-0.05120224] [ 0.5192185]
20 [ 0.04687011] [ 0.32806551]
40 [ 0.08647783] [ 0.307143]
60 [ 0.09655845] [ 0.30181798]
80 [ 0.09912409] [ 0.30046269]
100 [ 0.09977707] [ 0.30011776]
120 [ 0.09994329] [ 0.30002996]
140 [ 0.09998558] [ 0.30000764]
160 [ 0.09999632] [ 0.30000195]
180 [ 0.09999906] [ 0.30000052]
200 [ 0.09999976] [ 0.30000013]

2.3、數據結構

Tensorflow的數據結構有着rank,shape,data types的概念,下面來分別講解。

(1)rank

Rank一般是指數據的維度,其與線性代數中的rank不是一個概念。
例如我們所說的標量(Scalar):
s = 8,維數為 0,所以它的 rank 為 0。

例如矢量(Vector):
v = [1, 2, 3],rank 為 1。

例如矩陣(Matrix):
一個二維矩陣 rank 為 2

又例如 rank 為 3 的 tensor:
t = [[[2], [4], [6]], [[8], [10], [12]], [[14], [16], [18]]],以此類推。

(2)shape

tensorflow 用 3 種方式描述一個 tensor 的維數:
rank, shape(shape指tensor每個維度數據的個數), 以及 dimension number (維數)
所以 shape 和 rank 的意思的一樣的,只是表達的形式不同。

shape 寫成只包含整數的 list 或者 tuple 形式,例如 [1, 4, 2]

(3)datatype

tensor 的數據結構除了 維數(dimensionality),還有 數據類型(data type)。
例如 32位浮點數(32 bits floating point) 等等,可以從下面的鏈接中查看完整的:
https://www.tensorflow.org/programmers_guide/dims_types#data_types

3、 Variables

(1)介紹

當訓練模型時,需要使用Variables保存與更新參數。Variables會保存在內存當中,所有tensor一旦擁有Variables的指向就不會在session中丟失。其必須明確的初始化而且可以通過Saver保存到磁盤上。Variables可以通過Variables初始化。

weights = tf.Variable(tf.random_normal([784, 200], stddev=0.35),name="weights")
biases = tf.Variable(tf.zeros([200]), name="biases")

其中,tf.random_normal是隨機生成一個正態分布的tensor,其shape是第一個參數,stddev是其標准差。tf.zeros是生成一個全零的tensor。之后將這個tensor的值賦值給Variable。

(2)初始化

實際在其初始化過程中做了很多的操作,比如初始化空間,賦初值(等價於tf.assign),並把Variable添加到graph中等操作。注意在計算前需要初始化所有的Variable。一般會在定義graph時定義global_variables_initializer,其會在session運算時初始化所有變量。

直接調用global_variables_initializer會初始化所有的Variable,如果僅想初始化部分Variable可以調用tf.variables_initializer。

Init_ab = tf.variables_initializer([a,b],name=”init_ab”)

Variables可以通過eval顯示其值,也可以通過assign進行賦值。Variables支持很多數學運算,具體可以參照官方文檔

(3)Variables與constant的區別

值得注意的是Variables與constant的區別。Constant一般是常量,可以被賦值給Variables,constant保存在graph中,如果graph重復載入那么constant也會重復載入,其非常浪費資源,如非必要盡量不使用其保存大量數據。而Variables在每個session中都是單獨保存的,甚至可以單獨存在一個參數服務器上。可以通過代碼觀察到constant實際是保存在graph中。

(4)命名

另外一個值得注意的地方是盡量每一個變量都明確的命名,這樣易於管理命令空間,而且在導入模型的時候不會造成不同模型之間的命名沖突,這樣就可以在一張graph中容納很多個模型。

4、 placeholders與feed_dict

當我們定義一張graph時,有時候並不知道需要計算的值,比如模型的輸入數據,其只有在訓練與預測時才會有值。這時就需要placeholder(用占位符表示)與feed_dict的幫助。占位符並沒有初始值,它只會分配必要的內存。在會話中,占位符可以使用 feed_dict 饋送數據。
feed_dict是一個字典,在字典中需要給出每一個用到的占位符的取值。(sess.run使用的時候要給出前面的占位符的取值。)

定義一個placeholder,可以使用tf.placeholder(dtype,shape=None,name=None)函數。

foo = tf.placeholder(tf.int32,shape=[1],name='foo')
bar = tf.constant(2,name='bar')
result = foo + bar
with tf.Session() as sess:
   print(sess.run(result)) 

在上面的代碼中,會拋出錯誤(InvalidArgumentError),因為計算result需要foo的具體值,而在代碼中並沒有給出。這時候需要將實際值賦給foo。最后一行修改如下(其中最后的dict就是一個feed_dict,一般會使用python讀入一些值后傳入,當使用minbatch的情況下,每次輸入的值都不同):

print(sess.run(result,{foo:[3]}))


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM