
創建圖、啟動圖
Shift+Tab Tab

變量介紹:

Fetch

Feed

簡單的模型構造:線性回歸




MNIST數據集 Softmax函數


非線性回歸神經網絡

MINIST數據集分類器簡單版本

二次代價函數
sigmoid函數


交叉熵代價函數

對數釋然代價函數

擬合

防止過擬合

Dropout


優化器

優化器的使用
如何提升准確率?
1.改每批訓練多少個
2.改神經網絡中間層(神經元層數,每層的個數,每層用的激活函數,權重的初值用隨機正態、要不要防止過擬合)
3.改計算loss的函數:交叉熵cross entropy更好。【sigmoid函數一般是作為每層的激活函數,softmax函數是用於多分類,且該函數一般用在最后一層,即輸出層,並且不是使用sigmoid函數來獲得輸出。前面的激活函數用不用sigmoid函數不作要求。logistic相當於只有輸入層、單隱層神經元,和兩個神經元的輸出層,即結構特別簡單,輸入直接和權重相乘之后,加上偏置,再進行sigmoid激活函數激活,就得到了輸出層的兩個概率值,分別表示兩個類別的概率。而softmax通常用在多層神經網絡的的最后一層,中間經過了多次運算和激活,最后的類別不止兩類。】
4.改優化器(類型、學習率):Adadelta很厲害。
5.改迭代次數:一般越大越好,次數要足夠,穩定、變化不大。
ANN代碼結構的總結——"六股文":
第一步:構建輸入參數。
第二步:構建神經網絡。
第三步:選擇代價函數。
第四步:選擇優化器
第五步:計算准確率。
第六步:創建會話,進行運算
看看老師的優化:

將MNIST數據集准確率優化到98%以上
AI-11【煉數成金】深度學習框架Tensorflow學習與應用 視頻05:tensorboard可視化部分暫時不看(10:12 – 結尾)

卷積神經網絡CNN

神經網絡用於MNIST數據集分類
CNN代碼結構的總結
有待看tensorflow筆記
AI-11【煉數成金】深度學習框架Tensorflow學習與應用 視頻05:循環神經網絡RNN部分暫時不看

模型的保存與載入

下載模型:文件夾不存在?

使用下載的模型

測試訓練好的模型

安裝GPU版tensorflow






tfrecords文件的分塊生成


驗證碼的生成






驗證碼識別之生成單個tfrecords文件



多任務訓練



從tfrecords讀取數據




驗證碼識別的訓練程序用到Alexnet

最后一層的四個輸出,前面所有共享。





