深度學習入門實戰(二)-用TensorFlow訓練線性回歸


歡迎大家關注騰訊雲技術社區-博客園官方主頁,我們將持續在博客園為大家推薦技術精品文章哦~

作者 :董超

上一篇文章我們介紹了 MxNet 的安裝,但 MxNet 有個缺點,那就是文檔不太全,用起來可能是要看源代碼才能理解某個方法的含義,所以今天我們就介紹一下 TensorFlow,這個由谷歌爸爸出品的深度學習框架,文檔比較全~以后的我們也都使用這個框架~

0x00 概要

TensorFlow是谷歌爸爸出的一個開源機器學習框架,目前已被廣泛應用,谷歌爸爸出品即使性能不是最強的(其實性能也不錯),但絕對是用起來最方便的,畢竟谷歌有Jeff Dean坐鎮,這波穩。

0x01 TensorFlow安裝

官方有一個Mac上TensorFlow的安裝指南,點這里
我們現在就照着這個安裝指南操作一把,官方推薦在virtualenv中安裝TF,我們就在virtualenv安裝吧,大家也可以直接安裝。前幾天TF發布1.0版了,我們就安裝1.0版吧~

1.先安裝下pip和six

$ sudo easy_install --upgrade pip
$ sudo easy_install --upgrade six

2.安裝下virtualenv

$ sudo pip install --upgrade virtualenv

3.接下來, 建立一個全新的 virtualenv 環境。這里將環境建在 ~/tensorflow目錄下, 執行:

$ virtualenv --system-site-packages ~/tensorflow
$ cd ~/tensorflow 

4.然后, 激活 virtualenv:

$ source bin/activate # 如果使用 bash $ source bin/activate.csh # 如果使用 csh 

(tensorflow)$ # 終端提示符應該發生變化
如果要退出虛擬環境可以執行

(tensorflow)$ deactivate

也可以直接在shell里執行下面的代碼激活

source ~/tensorflow/bin/activate

5.在 virtualenv 內, 安裝 TensorFlow:
因為我用的是Python 2.x所以執行

$ sudo pip install --upgrade https://storage.googleapis.com/tensorflow/mac/cpu/tensorflow-1.0.0-py2-none-any.whl

要是使用Python3可以執行

$ pip3 install --upgrade https://storage.googleapis.com/tensorflow/mac/cpu/tensorflow-1.0.0-py3-none-any.whl

當然也可以執行下面這個命令直接安裝最新版

pip install --upgrade tensorflow

等命令執行完TF就安裝好了

安裝完成后可以在python中執行以下代碼

import tensorflow as tf hello = tf.constant('Hello, TensorFlow!') sess = tf.Session() print(sess.run(hello)) 

如果輸出

Hello, TensorFlow!

就說明安裝成功啦

PS:運行腳本的時候會提示不支持SSE xxx指令集的提示,這是因為我們是通過pip直接安裝的編譯好的版本導致的,如果想針對機器優化,可以直接從GitHub上的源代碼編譯安裝。但這樣會復雜些,而且我覺得其實提升不大,用CPU都很慢。。。不如直接上GPU性能提升快。

PS2:如果想安裝GPU版會復雜些,首先要有一塊支持CUDA的N卡,再安裝CUDA驅動啥的,各位看官可以谷歌一下查詢相關資料。如果不想搜索,也可以看本系列后續文章,以后也會介紹如何在Mac下安裝GPU版。

0x02 TensorFlow基本使用

在介紹樣例之前,我們先介紹一下TensorFlow的一些基本概念

1.placehoder(占位符)

tf.placeholder(dtype, shape=None, name=None)
Args:
    dtype: The type of elements in the tensor to be fed.     shape: The shape of the tensor to be fed (optional). If the shape is not specified, you can feed a tensor of any shape.     name: A name for the operation (optional). 

dytpe:占位符的數據類型
shape:占位符的緯度,例如[2,2]代表2x2的二維矩陣,None可以代表任意維度,例如[None,2]則代表任意行數,2列的二維矩陣
name:占位符的名字

變量在定義時要初始化,但可能有些變量我們一開始定義的時候並不一定知道該變量的值,只有當真正開始運行程序的時候才由外部輸入,比如我們需要訓練的數據,所以就用占位符來占個位置,告訴TensorFlow,等到真正運行的時候再通過輸入數據賦值。
例如

x = tf.placeholder(tf.float32, [2, 2]) 

就是生成了一個2x2的二維矩陣,矩陣中每個元素的類型都是tf.float32(也就是浮點型)。

有時候定義需要訓練的參數時候,會定義一個[input_size,output_size]大小的矩陣,其中input_size數輸入數據的維度,output_size是輸出數據的維度

2.Variable(變量)

官方說明 有些長,我就不引用啦,這里介紹一個簡單的用法,有一點變量在聲明的時候要有一個初始值

x = tf.Variable(tf.zeros([2,2])) # 聲明一個2x2的矩陣,並將矩陣中的所有元素的值賦為0,默認每個元素都是tf.float32類型的數據 y = tf.Variable(1.0, tf.float32) # 聲明一個tf.float32的變量,並將初始值設為1.0 

我們一般還需要運行下global_variables_initializer真正在TensorFlow的Session中初始化所有變量,后面的樣例中也會有體現。

3.Constant(常量)

官方說明 同樣不引用啦,這里介紹一個簡單的用法

x = tf.constant(3.0, tf.float32) # 定義一個值為3.0的浮點型常量 

4.Session(會話)

TensorFlow所有的操作都必須在Session中運行,才能真正起作用,可以將Session當作TensorFlow運行的環境,Session運行完需要close~

#用close()關閉 sess = tf.Session() sess.run(...) sess.close() #使用with..as..語句關閉 with tf.Session() as sess:     sess.run(...) 

5.簡單使用

我們介紹下3+5應該如何在TensorFlow中實現

import tensorflow as tf x = tf.Variable(3, tf.int16) // 聲明一個整型變量3 y = tf.Variable(5, tf.int16) // 聲明一個整型變量5 z = tf.add(x,y) // z = x + y init = tf.global_variables_initializer() // 初始化變量的操作 with tf.Session() as sess: sess.run(init) // 在Session中初始化變量 print(sess.run(z)) // 輸出計算出的z值 

0x03 樣例

Github上有一個比較好的Demo合集,有注釋有源代碼還蠻好的,但今天我們不講上面的代碼,我們講如何用TF實現線性回歸模型。

所謂線性回歸模型就是y = W * x + b的形式的表達式擬合的模型。

我們如果想通過深度學習擬合一條直線 y = 3 * x 應該怎么做呢?咱不講虛的先展示下代碼!然后我們在逐步分析。

#coding=utf-8 import tensorflow as tf x = tf.placeholder(tf.float32) W = tf.Variable(tf.zeros([1])) b = tf.Variable(tf.zeros([1])) y_ = tf.placeholder(tf.float32) y = W * x + b lost = tf.reduce_mean(tf.square(y_-y)) optimizer = tf.train.GradientDescentOptimizer(0.0000001) train_step = optimizer.minimize(lost) sess = tf.Session() init = tf.global_variables_initializer() sess.run(init) steps = 1000 for i in range(steps): xs = [i] ys = [3 * i] feed = { x: xs, y_: ys } sess.run(train_step, feed_dict=feed) if i % 100 == 0 : print("After %d iteration:" % i) print("W: %f" % sess.run(W)) print("b: %f" % sess.run(b)) print("lost: %f" % sess.run(lost, feed_dict=feed)) 

1.先導入需要使用的python庫。

#coding=utf-8 import tensorflow as tf 

畢竟是基於TensorFlow的,那我們肯定要導入TensorFlow滴,導入之后取個別名tf,之后用起來方便些。

2.定義需要的變量,我們看看y = W * x + b中都有哪些變量。

x = tf.placeholder(tf.float32) W = tf.Variable(tf.zeros([1])) b = tf.Variable(tf.zeros([1])) y_ = tf.placeholder(tf.float32) 

x:我們訓練時需要輸入的真實數據x
W: 我們需要訓練的W,這里我們定義了一個1維的變量(其實吧,就是一個普普通通的數,直接用tf.float32也行)並將其初值賦為0
b : 我們需要訓練的b,定義一個1維變量,並將其初值賦為0
y_ :我們訓練時需要輸入的x對應的y

3.定義線性模型

y = W * x + b 

4.定義損失函數和優化方法

lost = tf.reduce_mean(tf.square(y_-y)) optimizer = tf.train.GradientDescentOptimizer(0.0000001) train_step = optimizer.minimize(lost) 

lost = tf.reducemean(tf.square(y- y))

損失函數(Lost Function)是用來評估我們預測的值和真實的值之間的差距是多少,損失函數有很多種寫法,我們這里使用(y預測-y真實)^2再取平均數來作為我們的損失函數(用這個函數是有原因的,因為我們用的是梯度下降法進行學習)損失函數的值越小越好,有些教程也叫Cost Function

optimizer = tf.train.GradientDescentOptimizer(0.0000001)

優化函數代表我們要通過什么方式去優化我們需要學習的值,這個例子里指的是W和b,優化函數的種類有很多,大家到官網查閱,平時我們用的比較多的是GradientDescentOptimizer和AdamOptimizer等,這里我們選用最常用也是最最基本的GradientDescentOptimizer(梯度下降),后面傳入的值是學習效率。一般是一個小於1的數。越小收斂越慢,但並不是越大收斂越快哈,取值太大甚至可能不收斂了。。。

我們簡單介紹下什么是梯度下降,梯度顧名思義就是函數某一點的導數,也就是該點的變化率。梯度下降則顧名思義就是沿梯度下降的方向求解極小值。

詳細解釋大家可以自行谷歌一下~當然可以可以看這篇文章,當然由於性能的原因梯度下降有很多種變種,例如隨機梯度下降 (Stochastic Gradient Descent),小批梯度下降 (Mini-Batch Gradient Descent)。本文樣例采用的是SGD,每次只輸入一個數據。

train_step = optimizer.minimize(lost)

這個代表我們每次訓練迭代的目的,本例我們的目的就是盡量減小lost的值,也就是讓損失函數的值盡量變小

5.變量初始化

sess = tf.Session()
init = tf.global_variables_initializer()
sess.run(init)

這個之前有所介紹了,我們需要在Session中真正運行下global_variables_initializer才會真正初始化變量。

6.開始訓練

steps = 1000 for i in range(steps): xs = [i] ys = [3 * i] feed = { x: xs, y_: ys } sess.run(train_step, feed_dict=feed) if i % 100 == 0 : print("After %d iteration:" % i) print("W: %f" % sess.run(W)) print("b: %f" % sess.run(b)) print("lost: %f" % sess.run(lost, feed_dict=feed)) 

我們定義一個訓練迭代次數1000次。

這里我們圖方便,每次迭代都直接將i作為x,3*i作為y直接當成訓練數據。

我們所有通過placeholder定義的值,在訓練時我們都需要通過feed_dict來傳入數據。

然后我們每隔100次迭代,輸出一次訓練結果,看看效果如何~

After 0 iteration: W: 0.000000 b: 0.000000 lost: 0.000000 After 100 iteration: W: 0.196407 b: 0.002951 lost: 78599.671875 After 200 iteration: W: 1.249361 b: 0.009867 lost: 122582.625000 After 300 iteration: W: 2.513344 b: 0.015055 lost: 21310.636719 After 400 iteration: W: 2.960238 b: 0.016392 lost: 252.449890 After 500 iteration: W: 2.999347 b: 0.016484 lost: 0.096061 After 600 iteration: W: 2.999971 b: 0.016485 lost: 0.000001 After 700 iteration: W: 2.999975 b: 0.016485 lost: 0.000001 After 800 iteration: W: 2.999978 b: 0.016485 lost: 0.000001 After 900 iteration: W: 2.999981 b: 0.016485 lost: 0.000000 

可以看到在迭代了500次之后效果就很好了,w已經達到2.999347很接近3了,b也達到了0.016484也比較接近0了,因為這里學習率選擇的比較小,所以收斂的比較慢,各位也可以嘗試調大學習率,看看收斂的速度有何變化。

相關推薦

深度學習入門實戰(一)-像Prisma一樣算法生成梵高風格畫像
深度學習入門實戰(三)-圖片分類中的邏輯回歸
用TensorFlow進行手寫數字識別


 

此文已由作者授權騰訊雲技術社區發布,轉載請注明文章出處
原文鏈接:https://www.qcloud.com/community/article/935938
獲取更多騰訊海量技術實踐干貨,歡迎大家前往騰訊雲技術社區

【騰訊雲的1001種玩法】征文活動火熱進行中,歡迎你來撰寫騰訊雲相關技術文章喲,Apple Watch、iPad Mini 等你來拿! 點擊查看詳情


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM