卷積神經網絡CNN的原理(二)---公式推導


  卷積神經網絡與普通神經網絡的區別在於,卷積神經網絡包含多個由卷積層和池化層構成的特征抽取器。在卷積神經網絡的卷積層中,一個神經元只與部分鄰層神經元連接。在CNN的一個卷積層中,通常包含若干個特征平面(featureMap),每個特征平面由一些矩形排列的的神經元組成,同一特征平面的神經元共享權值,這里共享的權值就是卷積核。卷積核一般以隨機小數矩陣的形式初始化,在網絡的訓練過程中卷積核將學習得到合理的權值。共享權值(卷積核)帶來的直接好處是減少網絡各層之間的連接,同時又降低了過擬合的風險。子采樣也叫做池化(pooling),通常有均值子采樣(mean pooling)和最大值子采樣(max pooling)兩種形式。子采樣可以看作一種特殊的卷積過程。卷積和子采樣大大簡化了模型復雜度,減少了模型的參數。

  神經網絡的公式推導:

神經網絡的每個單元如下:

   其對應的公式如下:

  其中,該單元也可以被稱作是Logistic回歸模型。當將多個單元組合起來並具有分層結構時,就形成了神經網絡模型。下圖展示了一個具有一個隱含層的神經網絡。

        其對應的公式如下:

 

    多層的神經網絡和這個比較類,神經網絡可以擴展到有2,3,4,5,…個隱含層。

 神經網絡的訓練方法也同Logistic類似,不過由於其多層性,還需要利用鏈式求導法則對隱含層的節點進行求導,即梯度下降+鏈式求導法則,專業名稱為反向傳播

  卷積的公式:

卷積的概念,高等數學里面才接觸到,大學沒有好好學習的同學,是不是此處要淚奔了:

它的物理意義大概可以理解為:系統某一時刻的輸出是由多個輸入共同作用(疊加)的結果。放在圖像分析里,f(x) 可以理解為原始像素點(source pixel),所有的原始像素點疊加起來,就是原始圖了。

h(T)可以稱為作用點,所有作用點合起來我們稱為卷積核(Convolution kernel)

  微積分中卷積的表達式為:

 

    離散形式是:

 

 這個式子如果用矩陣表示可以為:

   其中星號表示卷積。

如果是二維的卷積,則表示式為:

 

   在CNN中,雖然我們也是說卷積,但是我們的卷積公式和嚴格意義數學中的定義稍有不同,比如對於二維的卷積,定義為:

  這個式子雖然從數學上講不是嚴格意義上的卷積,但是大牛們都這么叫了,那么我們也跟着這么叫了。其中,我們叫W為我們的卷積核,而X則為我們的輸入。如果X是一個二維輸入的矩陣,而W也是一個二維的矩陣。但是如果X是多維張量,那么W也是一個多維的張量。

 今日格言:心傷也不是壞事,說明你曾經付出過 

獻給正在為夢想付出的人

 參考文檔:

1 https://zhuanlan.zhihu.com/p/25249694

2     https://www.zhihu.com/question/22298352

3      http://www.cnblogs.com/pinard/p/6483207.html


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM