全连接层的作用


深入理解卷积层,全连接层的作用意义

参考链接:https://blog.csdn.net/m0_37407756/article/details/80904580

 全连接层的作用主要就是实现分类

参考链接:https://blog.csdn.net/weixin_40903337/article/details/100074878?spm=1001.2101.3001.6650.2&utm_medium=distribute.pc_relevant.none-task-blog-2%7Edefault%7ECTRLIST%7Edefault-2.no_search_link&depth_1-utm_source=distribute.pc_relevant.none-task-blog-2%7Edefault%7ECTRLIST%7Edefault-2.no_search_link

全连接层中一层的一个神经元就可以看成一个多项式,我们用许多神经元去拟合数据分布但是只用一层fully connected layer 有时候没法解决非线性问题,而如果有两层或以上fully connected layer就可以很好地解决非线性问题了。

在卷积神经网络的最后,往往会出现一两层全连接层,全连接一般会把卷积输出的二维特征图转化成一维的一个向量,这是怎么来的呢?目的何在呢?

参考链接:https://blog.csdn.net/GoodShot/article/details/79633313?utm_medium=distribute.pc_relevant.none-task-blog-2~default~baidujs_baidulandingword~default-1.no_search_link&spm=1001.2101.3001.4242.2

第一层全连接层:1*100

第二层全连接层:1*10

两层之间的连接就是卷积核:100*10的二维矩阵。

tips:想想矩阵相乘,就明白1X100的“矩阵”怎么变成1X10的矩阵了。

 


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM