動手學深度學習三---多層感知機MLP


1、隱藏層

多層感知機在單層神經網絡中引入了一到多個隱藏層,隱藏層位於輸入層和輸出層之間

輸入層特征數為4個,輸出層標簽類別為3,隱藏單元5個,輸入層不涉及計算,多層感知機層數為2

隱藏層中神經元和輸入層中各個輸入完全連接,輸出層神經元與隱藏層神經元完全連接,因此全連接層有兩個:輸出層和隱藏層

假設隱藏層權重和偏差分別為wh、bh,輸出層權重和偏差分別為wo、bo,輸出o的計算為

H = XWh + bh,

O =HWo + bo

即,O = (XWh + bh)Wo + bo=XWhWo+bhWo+ bo

此時,仍等價於單層神經網絡,輸出層權重為WhWo,偏差為bhWo+ bo

問題:模型仍為線性模型,如何解決非線性問題?

解決方式:引入非線性變換---激活函數,解決非線性問題

2、激活函數

(1)ReLU函數

給定元素x,ReLU(x)=max(x,0)

(2)sigmod函數

 將元素的值變換到0和1之間,在早期的神經網絡中使用較為普遍,現在更常用的是ReLU

(3)tanh函數

tanh雙曲正切函數可以將元素的值變換到-1和1之間

3、多層感知機

多層感知機就是含有至少一個隱藏層的由全連接層(隱藏層)組成的神經網絡,其中每一個隱藏層的輸出都會通過激活函數進行變換

多層感知機的層數和隱藏層的層數都是超參數,可以自己設定

表示激活函數

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM