[Deep Learning]任意层cnn的matlab版本实现


之前实现了一层的卷积神经网络,又实现了两层的卷积神经网络,接下来把cnn扩展到任意层就不难了。

这难道就是传说中的“道生一,一生二,二生三,三生万物”么?=。=

代码还是在github上。

比较有趣的一点是,我分别用两层的神经网络和一层的神经网络进行了实现,结果如下图:

两层的cnn结果:

一层的cnn结果:

可以看到,一层的cnn结果反而比两层的好,那么很有可能是两层的cnn出现了过拟合现象。对于mnist这种小数据集,一层的cnn加上一些参数调优绝对是够用了的。


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM