CNN 手寫數字識別


 

1. 知識點准備

在了解 CNN 網絡神經之前有兩個概念要理解,第一是二維圖像上卷積的概念,第二是 pooling 的概念。

a. 卷積

關於卷積的概念和細節可以參考這里,卷積運算有兩個非常重要特性,以下面這個一維的卷積為例子:

第一個特性是稀疏連接。可以看到, layer m 上的每一個節點都只與 layer m-1 對應區域的三個節點相連接。這個局部范圍也叫感受野。第二個特性是相同顏色的線條代表了相同的權重,即權重共享。這樣做有什么好處呢?一方面權重共享可以極大減小參數的數目,學習起來更加有效,另一方面,相同的權重可以讓過濾器不受圖像位置的影響來檢測圖像的特性,從而使 CNN 具有更強的泛化能力。

b. 池化

理論上,我們將圖像利用不同的過濾器通過卷積之后得到了多個卷積之后的圖像,然后直接利用這些圖像進行分類,但是這樣計算量太大了。利用池化操作可以將數據量減小,同時在一定程度上保留原有的圖像特征。關於 pooling, 概念更加簡單了,詳情可以參考這里。池化又可以分為平均池化和最大池化,這里我們將采用最大池化。注意到,池化的區域是不重疊的,卷積的感受野是重疊的。

2. 卷積神經網絡的搭建

下圖是手寫數字識別中采用的 lenet-5 簡單的卷積神經網絡模型:

  1. 原圖是 28 × 28 的手寫數字圖片,通過第一次 20 個 5 × 5 的卷積核之后,得到 20 張卷積圖片。卷積核的權重是取一定范圍內的隨機值,這樣,一張 28 × 28 的圖片就變為 20 張 (28-5+1)× (28-5+1)=24×24 的圖片了。

  2. 將 24×24 的圖片進行 2 × 2 的最大池化,得到 20 張 12 × 12 的圖片。該圖片的像素還需要進行 tanh 函數的變換才能作為下一個卷積層的輸入。

  3. 將 tanh 變化之后的 12 × 12 大小的圖片同樣進行 20 × 50 個 5 × 5 的卷積操作之后得到 50 張 (12-5+1)× (12-5+1) = 8 × 8 的圖片。

  4. 將 8×8 的圖片進行 2×2 的最大池化,得到 50 張 4×4 的圖片,再經過 tanh 函數進行歸一化處理,就可以作為 MLP 的 800 個輸入了。

  5. 余下來就是 MLP 的訓練工作了。

3. LR, MLP,CNN 識別代碼

已經訓練好的模型系數的下載地址

三種方法識別手寫數字的代碼:

  1 import cPickle
  2 
  3 import numpy
  4 
  5 import theano
  6 import theano.tensor as T
  7 from theano.tensor.signal import downsample
  8 from theano.tensor.nnet import conv
  9 
 10 ########################################
 11 # define the classifer constructs
 12 ########################################
 13 
 14 class LogisticRegression(object):
 15     def __init__(self, input, W=None, b=None):
 16 
 17         if W is None:
 18             fle = open("../model_param/lr_sgd_best.pkl")
 19             W, b = cPickle.load(fle)
 20             fle.close()
 21 
 22         self.W = W
 23         self.b = b
 24 
 25         self.outputs = T.nnet.softmax(T.dot(input, self.W) + b)
 26 
 27         self.pred = T.argmax(self.outputs, axis=1)
 28 
 29 class MLP(object):
 30     def __init__(self, input, params=None):
 31         if params is None:
 32             fle = open("../model_param/mlp_best.pkl")
 33             params = cPickle.load(fle)
 34             fle.close()
 35 
 36         self.hidden_W, self.hidden_b, self.lr_W, self.lr_b = params
 37 
 38         self.hiddenlayer = T.tanh(T.dot(input, self.hidden_W) + self.hidden_b)
 39 
 40         self.outputs = T.nnet.softmax(T.dot(self.hiddenlayer, self.lr_W) \
 41                     + self.lr_b)
 42 
 43         self.pred = T.argmax(self.outputs, axis=1)
 44 
 45 class CNN(object):
 46     def __init__(self, input, params=None):
 47         if params is None: 
 48             fle = open("../model_param/cnn_best.pkl")
 49             params = cPickle.load(fle)
 50             fle.close()
 51 
 52         ################
 53         self.layer3_W, self.layer3_b, self.layer2_W, self.layer2_b, \
 54             self.layer1_W, self.layer1_b, self.layer0_W, self.layer0_b = params
 55 
 56         # compute layer0 
 57         self.conv_out0 = conv.conv2d(input=input, filters=self.layer0_W)
 58 #                    filter_shape=(20, 1, 5, 5), image_shape=(1, 1, \
 59 #                        28, 28))
 60         self.pooled_out0 = downsample.max_pool_2d(input=self.conv_out0, \
 61                     ds=(2, 2), ignore_border=True)
 62         self.layer0_output = T.tanh(self.pooled_out0 + \
 63                     self.layer0_b.dimshuffle('x', 0, 'x', 'x'))
 64 
 65         # compute layer1 
 66         self.conv_out1 = conv.conv2d(input=self.layer0_output, filters=self.layer1_W)
 67 #                    filter_shape=(50, 20, 5, 5), image_shape=(1, 20, \
 68 #                        12, 12))
 69         self.pooled_out1 = downsample.max_pool_2d(input=self.conv_out1, \
 70                     ds=(2, 2), ignore_border=True)
 71         self.layer1_output = T.tanh(self.pooled_out1 + \
 72                     self.layer1_b.dimshuffle('x', 0, 'x', 'x'))
 73         
 74         # compute layer2
 75         self.layer2_input = self.layer1_output.flatten(2)
 76 
 77         self.layer2_output = T.tanh(T.dot(self.layer2_input, self.layer2_W) + \
 78                     self.layer2_b)
 79 
 80         # compute layer3
 81         self.outputs = T.nnet.softmax(T.dot(self.layer2_output, self.layer3_W)\
 82                     + self.layer3_b)
 83 
 84         self.pred = T.argmax(self.outputs, axis=1)
 85 
 86 ########################################
 87 # build classifier
 88 ########################################
 89 
 90 def lr(input):
 91     input.shape = 1, -1
 92 
 93     x = T.fmatrix('x')
 94     classifer = LogisticRegression(input=x)
 95 
 96     get_p_y = theano.function(inputs=[x], outputs=classifer.outputs)
 97     pred_y = theano.function(inputs=[x], outputs=classifer.pred)
 98     return (get_p_y(input), pred_y(input))
 99 
100 def mlp(input):
101     input.shape = 1, -1
102 
103     x = T.fmatrix('x')
104     classifer = MLP(input=x)
105 
106     get_p_y = theano.function(inputs=[x], outputs=classifer.outputs)
107     pred_y = theano.function(inputs=[x], outputs=classifer.pred)
108     return (get_p_y(input), pred_y(input))
109 
110 def cnn(input):
111     input.shape = (1, 1, 28, 28)
112     x = T.dtensor4('x')
113     classifer = CNN(input=x)
114     get_p_y = theano.function(inputs=[x], outputs=classifer.outputs)
115     pred_y = theano.function(inputs=[x], outputs=classifer.pred)
116     return (get_p_y(input), pred_y(input))
View Code

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM