CNN原理+超參數優化


原理

參考:https://www.cnblogs.com/charlotte77/p/7759802.html

卷積層:

作用:特征提取,減小參數

池化層:

作用:將卷積層提取的特征中最能反映該特征的特征值取出來

Flattern layer和全連接層:

作用:前者將前面得到的feature_map這種矩陣拍平,拍平后作為輸入輸入到全連接層,全連接層輸出后使用softmax得到多分類的概率

下面的機器之心的回答講解的更細致准確:

參考:https://www.zhihu.com/question/52668301

1、cnn的結構為:input——conv——relu——conv——relu——pool——relu——conv——relu——pool——fully connected

而在卷積層中用來提取特征的矩陣叫卷積核(也叫過濾器)

在cnn中離輸入層越近的卷積層(篩選出來的特征值)對應的特征越低級,越遠越高級。例如篩選的特征從左到右依次為曲線特征,圓形特征。

在全連接層,當使用softmax激活函數時,全連接層的輸出是一個n維向量,n是多分類問題的類別數量

模型的訓練是通過一個名為反向傳播的訓練過程來調整過濾器值(或權重)(這里參照西瓜書反向傳播部分),cnn也有其他模型訓練時用到的損失函數、評價指標,求解參數(過濾器值或權重)時也用的是梯度下降法。

全連接層的解釋:

畫圖解釋:https://zhuanlan.zhihu.com/p/23178423

全連接層中的“卷積”操作:https://zhuanlan.zhihu.com/p/33841176

https://www.zhihu.com/question/41037974

 超參數優化

參考:https://www.cnblogs.com/bonelee/p/8528863.html


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM