歡迎大家關注騰訊雲技術社區-博客園官方主頁,我們將持續在博客園為大家推薦技術精品文章哦~
作者 :董超
上一篇文章我們介紹了 MxNet 的安裝,但 MxNet 有個缺點,那就是文檔不太全,用起來可能是要看源代碼才能理解某個方法的含義,所以今天我們就介紹一下 TensorFlow,這個由谷歌爸爸出品的深度學習框架,文檔比較全~以后的我們也都使用這個框架~
0x00 概要
TensorFlow是谷歌爸爸出的一個開源機器學習框架,目前已被廣泛應用,谷歌爸爸出品即使性能不是最強的(其實性能也不錯),但絕對是用起來最方便的,畢竟谷歌有Jeff Dean坐鎮,這波穩。
0x01 TensorFlow安裝
官方有一個Mac上TensorFlow的安裝指南,點這里
我們現在就照着這個安裝指南操作一把,官方推薦在virtualenv中安裝TF,我們就在virtualenv安裝吧,大家也可以直接安裝。前幾天TF發布1.0版了,我們就安裝1.0版吧~
1.先安裝下pip和six
$ sudo easy_install --upgrade pip
$ sudo easy_install --upgrade six
2.安裝下virtualenv
$ sudo pip install --upgrade virtualenv
3.接下來, 建立一個全新的 virtualenv 環境。這里將環境建在 ~/tensorflow目錄下, 執行:
$ virtualenv --system-site-packages ~/tensorflow
$ cd ~/tensorflow
4.然后, 激活 virtualenv:
$ source bin/activate # 如果使用 bash $ source bin/activate.csh # 如果使用 csh
(tensorflow)$ # 終端提示符應該發生變化
如果要退出虛擬環境可以執行
(tensorflow)$ deactivate
也可以直接在shell里執行下面的代碼激活
source ~/tensorflow/bin/activate
5.在 virtualenv 內, 安裝 TensorFlow:
因為我用的是Python 2.x所以執行
$ sudo pip install --upgrade https://storage.googleapis.com/tensorflow/mac/cpu/tensorflow-1.0.0-py2-none-any.whl
要是使用Python3可以執行
$ pip3 install --upgrade https://storage.googleapis.com/tensorflow/mac/cpu/tensorflow-1.0.0-py3-none-any.whl
當然也可以執行下面這個命令直接安裝最新版
pip install --upgrade tensorflow
等命令執行完TF就安裝好了
安裝完成后可以在python中執行以下代碼
import tensorflow as tf hello = tf.constant('Hello, TensorFlow!') sess = tf.Session() print(sess.run(hello))
如果輸出
Hello, TensorFlow!
就說明安裝成功啦
PS:運行腳本的時候會提示不支持SSE xxx指令集的提示,這是因為我們是通過pip直接安裝的編譯好的版本導致的,如果想針對機器優化,可以直接從GitHub上的源代碼編譯安裝。但這樣會復雜些,而且我覺得其實提升不大,用CPU都很慢。。。不如直接上GPU性能提升快。
PS2:如果想安裝GPU版會復雜些,首先要有一塊支持CUDA的N卡,再安裝CUDA驅動啥的,各位看官可以谷歌一下查詢相關資料。如果不想搜索,也可以看本系列后續文章,以后也會介紹如何在Mac下安裝GPU版。
0x02 TensorFlow基本使用
在介紹樣例之前,我們先介紹一下TensorFlow的一些基本概念
1.placehoder(占位符)
tf.placeholder(dtype, shape=None, name=None)
Args:
dtype: The type of elements in the tensor to be fed. shape: The shape of the tensor to be fed (optional). If the shape is not specified, you can feed a tensor of any shape. name: A name for the operation (optional).
dytpe:占位符的數據類型
shape:占位符的緯度,例如[2,2]代表2x2的二維矩陣,None可以代表任意維度,例如[None,2]則代表任意行數,2列的二維矩陣
name:占位符的名字
變量在定義時要初始化,但可能有些變量我們一開始定義的時候並不一定知道該變量的值,只有當真正開始運行程序的時候才由外部輸入,比如我們需要訓練的數據,所以就用占位符來占個位置,告訴TensorFlow,等到真正運行的時候再通過輸入數據賦值。
例如
x = tf.placeholder(tf.float32, [2, 2])
就是生成了一個2x2的二維矩陣,矩陣中每個元素的類型都是tf.float32(也就是浮點型)。
有時候定義需要訓練的參數時候,會定義一個[input_size,output_size]大小的矩陣,其中input_size數輸入數據的維度,output_size是輸出數據的維度
2.Variable(變量)
官方說明 有些長,我就不引用啦,這里介紹一個簡單的用法,有一點變量在聲明的時候要有一個初始值
x = tf.Variable(tf.zeros([2,2])) # 聲明一個2x2的矩陣,並將矩陣中的所有元素的值賦為0,默認每個元素都是tf.float32類型的數據 y = tf.Variable(1.0, tf.float32) # 聲明一個tf.float32的變量,並將初始值設為1.0
我們一般還需要運行下global_variables_initializer真正在TensorFlow的Session中初始化所有變量,后面的樣例中也會有體現。
3.Constant(常量)
官方說明 同樣不引用啦,這里介紹一個簡單的用法
x = tf.constant(3.0, tf.float32) # 定義一個值為3.0的浮點型常量
4.Session(會話)
TensorFlow所有的操作都必須在Session中運行,才能真正起作用,可以將Session當作TensorFlow運行的環境,Session運行完需要close~
#用close()關閉 sess = tf.Session() sess.run(...) sess.close() #使用with..as..語句關閉 with tf.Session() as sess: sess.run(...)
5.簡單使用
我們介紹下3+5應該如何在TensorFlow中實現
import tensorflow as tf x = tf.Variable(3, tf.int16) // 聲明一個整型變量3 y = tf.Variable(5, tf.int16) // 聲明一個整型變量5 z = tf.add(x,y) // z = x + y init = tf.global_variables_initializer() // 初始化變量的操作 with tf.Session() as sess: sess.run(init) // 在Session中初始化變量 print(sess.run(z)) // 輸出計算出的z值
0x03 樣例
Github上有一個比較好的Demo合集,有注釋有源代碼還蠻好的,但今天我們不講上面的代碼,我們講如何用TF實現線性回歸模型。
所謂線性回歸模型就是y = W * x + b的形式的表達式擬合的模型。
我們如果想通過深度學習擬合一條直線 y = 3 * x 應該怎么做呢?咱不講虛的先展示下代碼!然后我們在逐步分析。
#coding=utf-8 import tensorflow as tf x = tf.placeholder(tf.float32) W = tf.Variable(tf.zeros([1])) b = tf.Variable(tf.zeros([1])) y_ = tf.placeholder(tf.float32) y = W * x + b lost = tf.reduce_mean(tf.square(y_-y)) optimizer = tf.train.GradientDescentOptimizer(0.0000001) train_step = optimizer.minimize(lost) sess = tf.Session() init = tf.global_variables_initializer() sess.run(init) steps = 1000 for i in range(steps): xs = [i] ys = [3 * i] feed = { x: xs, y_: ys } sess.run(train_step, feed_dict=feed) if i % 100 == 0 : print("After %d iteration:" % i) print("W: %f" % sess.run(W)) print("b: %f" % sess.run(b)) print("lost: %f" % sess.run(lost, feed_dict=feed))
1.先導入需要使用的python庫。
#coding=utf-8 import tensorflow as tf
畢竟是基於TensorFlow的,那我們肯定要導入TensorFlow滴,導入之后取個別名tf,之后用起來方便些。
2.定義需要的變量,我們看看y = W * x + b中都有哪些變量。
x = tf.placeholder(tf.float32) W = tf.Variable(tf.zeros([1])) b = tf.Variable(tf.zeros([1])) y_ = tf.placeholder(tf.float32)
x:我們訓練時需要輸入的真實數據x
W: 我們需要訓練的W,這里我們定義了一個1維的變量(其實吧,就是一個普普通通的數,直接用tf.float32也行)並將其初值賦為0
b : 我們需要訓練的b,定義一個1維變量,並將其初值賦為0
y_ :我們訓練時需要輸入的x對應的y
3.定義線性模型
y = W * x + b
4.定義損失函數和優化方法
lost = tf.reduce_mean(tf.square(y_-y)) optimizer = tf.train.GradientDescentOptimizer(0.0000001) train_step = optimizer.minimize(lost)
lost = tf.reducemean(tf.square(y- y))
損失函數(Lost Function)是用來評估我們預測的值和真實的值之間的差距是多少,損失函數有很多種寫法,我們這里使用(y預測-y真實)^2再取平均數來作為我們的損失函數(用這個函數是有原因的,因為我們用的是梯度下降法進行學習)損失函數的值越小越好,有些教程也叫Cost Function
optimizer = tf.train.GradientDescentOptimizer(0.0000001)
優化函數代表我們要通過什么方式去優化我們需要學習的值,這個例子里指的是W和b,優化函數的種類有很多,大家到官網查閱,平時我們用的比較多的是GradientDescentOptimizer和AdamOptimizer等,這里我們選用最常用也是最最基本的GradientDescentOptimizer(梯度下降),后面傳入的值是學習效率。一般是一個小於1的數。越小收斂越慢,但並不是越大收斂越快哈,取值太大甚至可能不收斂了。。。
我們簡單介紹下什么是梯度下降,梯度顧名思義就是函數某一點的導數,也就是該點的變化率。梯度下降則顧名思義就是沿梯度下降的方向求解極小值。
詳細解釋大家可以自行谷歌一下~當然可以可以看這篇文章,當然由於性能的原因梯度下降有很多種變種,例如隨機梯度下降 (Stochastic Gradient Descent),小批梯度下降 (Mini-Batch Gradient Descent)。本文樣例采用的是SGD,每次只輸入一個數據。
train_step = optimizer.minimize(lost)
這個代表我們每次訓練迭代的目的,本例我們的目的就是盡量減小lost的值,也就是讓損失函數的值盡量變小
5.變量初始化
sess = tf.Session()
init = tf.global_variables_initializer()
sess.run(init)
這個之前有所介紹了,我們需要在Session中真正運行下global_variables_initializer才會真正初始化變量。
6.開始訓練
steps = 1000 for i in range(steps): xs = [i] ys = [3 * i] feed = { x: xs, y_: ys } sess.run(train_step, feed_dict=feed) if i % 100 == 0 : print("After %d iteration:" % i) print("W: %f" % sess.run(W)) print("b: %f" % sess.run(b)) print("lost: %f" % sess.run(lost, feed_dict=feed))
我們定義一個訓練迭代次數1000次。
這里我們圖方便,每次迭代都直接將i作為x,3*i作為y直接當成訓練數據。
我們所有通過placeholder定義的值,在訓練時我們都需要通過feed_dict來傳入數據。
然后我們每隔100次迭代,輸出一次訓練結果,看看效果如何~
After 0 iteration: W: 0.000000 b: 0.000000 lost: 0.000000 After 100 iteration: W: 0.196407 b: 0.002951 lost: 78599.671875 After 200 iteration: W: 1.249361 b: 0.009867 lost: 122582.625000 After 300 iteration: W: 2.513344 b: 0.015055 lost: 21310.636719 After 400 iteration: W: 2.960238 b: 0.016392 lost: 252.449890 After 500 iteration: W: 2.999347 b: 0.016484 lost: 0.096061 After 600 iteration: W: 2.999971 b: 0.016485 lost: 0.000001 After 700 iteration: W: 2.999975 b: 0.016485 lost: 0.000001 After 800 iteration: W: 2.999978 b: 0.016485 lost: 0.000001 After 900 iteration: W: 2.999981 b: 0.016485 lost: 0.000000
可以看到在迭代了500次之后效果就很好了,w已經達到2.999347很接近3了,b也達到了0.016484也比較接近0了,因為這里學習率選擇的比較小,所以收斂的比較慢,各位也可以嘗試調大學習率,看看收斂的速度有何變化。
相關推薦
深度學習入門實戰(一)-像Prisma一樣算法生成梵高風格畫像
深度學習入門實戰(三)-圖片分類中的邏輯回歸
用TensorFlow進行手寫數字識別
此文已由作者授權騰訊雲技術社區發布,轉載請注明文章出處
原文鏈接:https://www.qcloud.com/community/article/935938
獲取更多騰訊海量技術實踐干貨,歡迎大家前往騰訊雲技術社區
【騰訊雲的1001種玩法】征文活動火熱進行中,歡迎你來撰寫騰訊雲相關技術文章喲,Apple Watch、iPad Mini 等你來拿! 點擊查看詳情