BP神經網絡模型及算法推導


一,什么是BP

"BP(Back Propagation)網絡是1986年由Rumelhart和McCelland為首的科學家小組提出,是一種按誤差逆傳播算法訓練的多層前饋網絡,是目前應用最廣泛的神經網絡模型之一。BP網絡能學習和存貯大量的輸入-輸出模式映射關系,而無需事前揭示描述這種映射關系的數學方程。它的學習規則是使用最速下降法,通過反向傳播來不斷調整網絡的權值和閾值,使網絡的誤差平方和最小。BP神經網絡模型拓撲結構包括輸入層(input)、隱層(hide layer)和輸出層(output layer)。"

我們現在來分析下這些話:

  • “是一種按誤差逆傳播算法訓練的多層前饋網絡”

BP是后向傳播的英文縮寫,那么傳播對象是什么?傳播的目的是什么?傳播的方式是后向,可這又是什么意思呢。

傳播的對象是誤差,傳播的目的是得到所有層的估計誤差,后向是說由后層誤差推導前層誤差:

即BP的思想可以總結為

利用輸出后的誤差來估計輸出層的直接前導層的誤差,再用這個誤差估計更前一層的誤差,如此一層一層的反傳下去,就獲得了所有其他各層的誤差估計。 
  • “BP神經網絡模型拓撲結構包括輸入層(input)、隱層(hide layer)和輸出層(output layer)”

我們來看一個最簡單的三層BP:

  • “BP網絡能學習和存貯大量的輸入-輸出模式映射關系,而無需事前揭示描述這種映射關系的數學方程。”

BP利用一種稱為激活函數來描述層與層輸出之間的關系,從而模擬各層神經元之間的交互反應。

激活函數必須滿足處處可導的條件。那么比較常用的是一種稱為S型函數的激活函數:

神經網絡的學習目的:

希望能夠學習到一個模型,能夠對輸入輸出一個我們期望的輸出。
 
學習的方式:
在外界輸入樣本的刺激下不斷改變網絡的連接權值
 
學習的本質:
對各連接權值的動態調整

學習的核心:

權值調整規則,即在學習過程中網絡中各神經元的連接權變化所依據的一定的調整規則。

二,有監督的BP模型訓練過程

1. 思想

有監督的BP模型訓練表示我們有一個訓練集,它包括了: input X 和它被期望擁有的輸出 output Y

所以對於當前的一個BP模型,我們能夠獲得它針對於訓練集的誤差

所以BP的核心思想就是:將輸出誤差以某種形式通過隱層向輸入層逐層反傳,這里的某種形式其實就是:

也就是一種 "信號的正向傳播 ----> 誤差的反向傳播"的過程:

2.具體

三:算法推導

  神經網絡通過模擬人的神經元活動,來構造分類器。它的基本組成單元稱為”神經元”,離線情況下如果輸入大於某值時,設定神經元處於興奮狀態,產生輸出,否則不響應。而這個輸入來自於所有其它的神經元。而神經元的響應函數有多種(需要滿足可微,這種簡單的函數可以擬合任何非線性函數),本文選擇sigmod函數。關於基礎知識在此不在多說,這里主要介紹一下BP神經網絡,並推導權值和閾值的更新公式。

 

  BP網絡通過前向反饋誤差來改變權值和閾值,當網絡的輸出與實際期望的輸出均方誤差低於某個閾值或者學習次數滿足一定條件時,訓練完成。首先給出輸出均方誤差的公式:

 

 

  其中,m是輸出節點個數,p是訓練樣本個數。我們就是以最小化這個EA為目標更新網絡參數。這里以3層網絡為例進行推導,即一個輸入層、隱含層、輸出層。最小化目標函數采用梯度下降的方法。

1、隱含層到輸出層的權值更新

  K為隱含層節點數,i為輸出節點個數。權值更新公式:

 

其中wki表示第k個隱含節點到第i個輸出節點之間的權重,η為學習率,是一個使得求解快速收斂的學習因子,為EA關於wki的梯度。即:

因為:

,其中,激活函數對x求導后,y'=y(1-y),所以進一步求得:

這就是wki的梯度值。記:

,表示為權值的增量,則權值更新可寫成:

其中增量:

所以根據這個式子我們就可以更新權值了。

 

2.輸入層到隱含層的權值更新

 

  同理,誤差關於權值的梯度可通過以下式子求解,與上面有點不同的是:輸入層與隱含節點之間的權值將影響所有的隱含節點到輸出層之間的值,所以此時的權值梯度信息應該對誤差在隱含層與輸出層之間產生累加效應。廢話不多說,直接上圖上公式更明了:

其中,

所以這一層的權值增量也可以寫成這樣的形式:

以上為從不同的兩篇文中復制過來的  第三部分算法推導中跟上面的公式符號有所不同。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM