MLP(multi-layer perceptrons)


  • 神經元neuron(基本計算單元)

 


xi為輸入,wi為各項輸入的權重,b為偏差,f為激活函數,h為輸出。輸入的加權和,經過激活函數映射為輸出。

    • 參數的物理意義:權重(各輸入的重要程度)偏差(該神經元被激活的難易程度≈閾值)
    • 激活函數:常見有sigmoid函數,tanh(雙曲正切)函數,線性整流函數ReLu

sigmoid函數    將加權和縮放到[0,1],微分形式為  

tanh函數   將加權和縮放到[-1,1] ,微分形式為

線性整流函數   分段函數,實際神經網絡中更好用。梯度=0(z<0),t梯度=1(z>0)

注:分類問題:使用sigmoid函數,label y=0 or 1, 使用tanh函數, label y = -1 or 1.

回歸問題:[0,1];[-1,1]

 

  • 神經網絡模型


神經網絡本質是多個神經元連接組成的層級結構,上一層的輸出為下一層的輸入。

基本概念:輸入層,輸出層,隱藏層略。

基本表示符號略。

前向傳播:上一層的輸出作為本層的輸入,依次逐層向后傳播。

  • 代價函數(cost function)
某個樣本的代價:
所有樣本的代價:
第一項為所有樣本代價的平均值,第二項為權重正則化項regularization(權重衰減項weight decay),避免權重太大引起過擬合.
λ為權重衰減參數。
  • 梯度下降法最小化代價函數
    • 初始化參數:正態分布初始化參數(如果全部初始化為0,會導致每層的神經元學到相同的函數。)
    • 梯度下降法:用優化算法(eg:梯度下降法)最小化代價函數,其中最重要的步驟計算梯度。
    •       
    • 反向傳播算法計算梯度

<wiz_tmp_tag id="wiz-table-range-border" contenteditable="false" style="display: none;">






免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM