原文:Deep Learning 30: 卷积理解

一.深度卷积神经网络学习笔记 一 : . 这篇文章以贾清扬的ppt说明了卷积的实质,更说明了卷积输出图像大小应该为: 假设输入图像尺寸为W,卷积核尺寸为F,步幅 stride 为S 卷积核移动的步幅 ,Padding使用P 用于填充输入图像的边界,一般填充 ,那么经过该卷积层后输出的图像尺寸为 W F P S 。 .它写出为什么会用padding 卷积核大小该如何确定 stride该如何确定 二. ...

2017-02-22 16:24 0 5505 推荐指数:

查看详情

Deep learning:四十六(DropConnect简单理解)

  和maxout(maxout简单理解)一样,DropConnect也是在ICML2013上发表的,同样也是为了提高Deep Network的泛化能力的,两者都号称是对Dropout(Dropout简单理解)的改进。   我们知道,Dropout是在训练过程中以一定概率1-p ...

Tue Nov 19 05:46:00 CST 2013 0 19691
Deep Learning基础--理解LSTM网络

循环神经网络(RNN) 人们的每次思考并不都是从零开始的。比如说你在阅读这篇文章时,你基于对前面的文字的理解理解你目前阅读到的文字,而不是每读到一个文字时,都抛弃掉前面的思考,从头开始。你的记忆是有持久性的。 传统的神经网络并不能如此,这似乎是一个主要的缺点。例如,假设你在看一场电影,你想 ...

Fri Sep 22 06:02:00 CST 2017 0 1146
Deep learning:十九(RBM简单理解)

  这篇博客主要用来简单介绍下RBM网络,因为deep learning中的一个重要网络结构DBN就可以由RBM网络叠加而成,所以对RBM的理解有利于我们对DBN算法以及deep learning算法的进一步理解Deep learning是从06年开始火得,得益于大牛Hinton的文章 ...

Wed Mar 27 23:31:00 CST 2013 21 80257
Deep learning:四十一(Dropout简单理解)

  前言   训练神经网络模型时,如果训练样本较少,为了防止模型过拟合,Dropout可以作为一种trikc供选择。Dropout是hintion最近2年提出的,源于其文章Improving ...

Thu Aug 15 03:14:00 CST 2013 20 149511
Deep learning:四十五(maxout简单理解)

  maxout出现在ICML2013上,作者Goodfellow将maxout和dropout结合后,号称在MNIST, CIFAR-10, CIFAR-100, SVHN这4个数据上都 ...

Mon Nov 18 18:10:00 CST 2013 13 54726
Deep learning:五十(Deconvolution Network简单理解)

  深度网络结构是由多个单层网络叠加而成的,而常见的单层网络按照编码解码情况可以分为下面3类: 既有encoder部分也有decoder部分:比如常见的RBM系列(由RBM可 ...

Wed Nov 27 05:05:00 CST 2013 10 33374
Deep Learning 学习随记(七)Convolution and Pooling --卷积和池化

图像大小与参数个数: 前面几章都是针对小图像块处理的,这一章则是针对大图像进行处理的。两者在这的区别还是很明显的,小图像(如8*8,MINIST的28*28)可以采用全连接的方式(即输入层和隐含层直 ...

Sun Nov 10 00:39:00 CST 2013 0 4430
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM