深度學習基礎篇之邏輯回歸擬合二維數據


  從今天起,我會在這里記錄一下學習深度學習所留下的足跡,目的也很簡單,手頭有近3w個已經標記好正確值得驗證碼,想要從頭訓練出一個可以使用的模型,

雖然我也知道網上的相關模型和demo很多,但是還是非常希望自己可以親手搞一個能用的出來,學習書籍主要是:李金洪老師的《深度學習之Tensorflow 入門、原理與進階實戰》。

另外,在我將驗證碼識別模型訓練出來后也會將源代碼、模型,以及近3w個驗證碼完全開源出來。共勉之。

  

 1 #!/usr/bin/env python
 2 # -*- coding: utf-8 -*-
 3 # @Time    : 2019/9/23 21:27
 4 # @Author  : SongSa
 5 # @Desc    : 
 6 # @File    : 擬合二維數據.py
 7 # @Software: PyCharm
 8 
 9 import tensorflow as tf
10 import numpy as np
11 import matplotlib.pyplot as plt
12 
13 """
14 深度學習分為4個步驟:
15     准備數據
16     搭建模型
17     迭代訓練
18     使用模型
19 """
20 
21 ########准備數據########
22 train_X = np.linspace(-1, 1, 100)
23 train_Y = 2 * train_X + np.random.randn(100) * 0.3  # y = 2x  但是加入了噪聲
24 plt.plot(train_X, train_Y, 'ro', label='original data')  # 顯示模擬的數據點
25 plt.legend()  # 擁有顯示圖例label
26 plt.show()
27 
28 
29 plotdata = {"batchsize":[], "loss":[]}
30 def moving_average(a, w=10):
31     if len(a) < w:
32         return a[:]
33     return [val if idx < w else sum(a[(idx-w):idx])/w for idx, val in enumerate(a)]
34 
35 
36 ########搭建模型########
37 # 模型分為兩個方向:正向和反向
38 # 創建模型
39 X = tf.placeholder("float")  # 占位符
40 Y = tf.placeholder("float")
41 # 模型參數
42 W = tf.Variable(tf.random_normal([1]), name="weight")  # W被初始化為[-1, 1]的隨機數,形狀為一維的數字
43 b = tf.Variable(tf.zeros([1]), name="bias")  # b的初始化為0
44 # 前向結構
45 z = tf.multiply(X, W) + b  # tf.multiply()是相乘的函數  z = X * W + b
46 
47 # 反向搭建模型
48 # 神經網絡在訓練時數據流向有兩個方向,先通過正向生成一個值,然后觀察其與真實值的差距,再通過反向過程將里邊的參數進行調整,
49 # 接着在生成正向預測值來與真實值進行比對,如此循環,知道將參數調整為合適值為止,反向傳播會引入一些算法來實現對參數的正確調整。
50 cost = tf.reduce_mean(tf.square(Y - z))  # cost等於生成值與真實值的平方差
51 # tf.reduce_mean()  用於計算張量沿着指定軸的平均值
52 # tf.square() 用於計算Y-z的平方
53 learning_rate = 0.01  # 學習率 (值越大表明調整的速度越大,但不精准,反之亦然)
54 optimizer = tf.train.GradientDescentOptimizer(learning_rate).minimize(cost)  # 封裝好的梯度下降算法
55 
56 
57 ########迭代訓練########
58 # Tensorflow中的任務是通過session來進行的
59 init = tf.global_variables_initializer()  # 初始化所有變量
60 #定義參數
61 training_epochs = 20
62 display_stop = 2
63 # 啟動session
64 with tf.Session() as sess:
65     sess.run(init)
66     plotdata = {"batchsize":[], "loss":[]}  # 存放批次值和損失值
67     for epoch in range(training_epochs):
68         for (x, y) in zip(train_X, train_Y):
69             sess.run(optimizer, feed_dict={X:x, Y:y})
70 
71         # 顯示訓練中的詳細信息
72         if epoch % display_stop == 0:
73             loss = sess.run(cost, feed_dict={X:train_X, Y:train_Y})
74             print("Epoch:", epoch+1, "cost=", loss, "W=", sess.run(W), "b=", sess.run(b))
75             if not (loss == "NA"):
76                 plotdata['batchsize'].append(epoch)
77                 plotdata["loss"].append(loss)
78 
79     print("Finished!")
80     print("cost=", sess.run(cost, feed_dict={X:train_X, Y:train_Y}), "W=", sess.run(W), "b=", sess.run(b))
81 
82     # 訓練模型可視化
83     plt.plot(train_X, train_Y, 'ro', label="Original data")
84     plt.plot(train_X, sess.run(W) * train_X + sess.run(b), label="Fittedline")
85     plt.legend()
86     plt.show()
87 
88     plotdata['avgloss'] = moving_average(plotdata["loss"])
89     plt.figure(1)
90     plt.subplot(211)
91     plt.plot(plotdata["batchsize"], plotdata['avgloss'], 'b--')
92     plt.ylabel("Loss")
93     plt.title("Minibatch run vs.  Training loss")
94     plt.show()
95 
96 
97 ########使用模型########
98     print('使用模型:\n\n')
99     print("x=0.2, z=", sess.run(z, feed_dict={X:0.2}))

最后,打個廣告: 想了解更多Python關於爬蟲、數據分析的內容,獲取大量爬蟲爬取到的源數據,歡迎大家關注我的微信公眾號:悟道Python


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM