原理
參考:https://www.cnblogs.com/charlotte77/p/7759802.html
卷積層:
作用:特征提取,減小參數
池化層:
作用:將卷積層提取的特征中最能反映該特征的特征值取出來
Flattern layer和全連接層:
作用:前者將前面得到的feature_map這種矩陣拍平,拍平后作為輸入輸入到全連接層,全連接層輸出后使用softmax得到多分類的概率
下面的機器之心的回答講解的更細致准確:
參考:https://www.zhihu.com/question/52668301
1、cnn的結構為:input——conv——relu——conv——relu——pool——relu——conv——relu——pool——fully connected
而在卷積層中用來提取特征的矩陣叫卷積核(也叫過濾器)
在cnn中離輸入層越近的卷積層(篩選出來的特征值)對應的特征越低級,越遠越高級。例如篩選的特征從左到右依次為曲線特征,圓形特征。
在全連接層,當使用softmax激活函數時,全連接層的輸出是一個n維向量,n是多分類問題的類別數量
模型的訓練是通過一個名為反向傳播的訓練過程來調整過濾器值(或權重)(這里參照西瓜書反向傳播部分),cnn也有其他模型訓練時用到的損失函數、評價指標,求解參數(過濾器值或權重)時也用的是梯度下降法。
全連接層的解釋:
畫圖解釋:https://zhuanlan.zhihu.com/p/23178423
全連接層中的“卷積”操作:https://zhuanlan.zhihu.com/p/33841176
https://www.zhihu.com/question/41037974