原文:Deep Learning 学习随记(七)Convolution and Pooling --卷积和池化

图像大小与参数个数: 前面几章都是针对小图像块处理的,这一章则是针对大图像进行处理的。两者在这的区别还是很明显的,小图像 如 ,MINIST的 可以采用全连接的方式 即输入层和隐含层直接相连 。但是大图像,这个将会变得很耗时:比如 的图像,若采用全连接方式,需要 个输入单元,然后如果要训练 个特征,只这一层就需要 个参数 W,b ,训练时间将是前面的几百或者上万倍。所以这里用到了部分联通网络。对于 ...

2013-11-09 16:39 0 4430 推荐指数:

查看详情

Deep learning:十七(Linear Decoders,ConvolutionPooling)

  本文主要是学习下Linear Decoder已经在大图片中经常采用的技术convolutionpooling,分别参考网页http://deeplearning.stanford.edu/wiki/index.php/UFLDL_Tutorial中对应的章节部分 ...

Mon Mar 25 22:44:00 CST 2013 4 22531
Deep Learning 学习随记(三)Softmax regression

讲义中的第四章,讲的是Softmax 回归。softmax回归是logistic回归的泛化版,先来回顾下logistic回归。 logistic回归: 训练集为{(x(1),y(1)),...,( ...

Mon Oct 14 00:44:00 CST 2013 0 5741
Deep Learning学习随记(一)稀疏自编码器

最近开始看Deep Learning,随手记点,方便以后查看。 主要参考资料是Stanford 教授 Andrew Ng 的 Deep Learning 教程讲义:http://deeplearning.stanford.edu/wiki/index.php/UFLDL_Tutorial ...

Fri Oct 11 00:44:00 CST 2013 3 10046
day-16 CNN卷积神经网络算法之Max pooling操作学习

利用CNN卷积神经网络进行训练时,进行完卷积运算,还需要接着进行Max pooling操作,目的是在尽量不丢失图像特征前期下,对图像进行downsampling。 首先看下max pooling的具体操作:整个图片被不重叠的分割成若干个同样大小的小块 ...

Sat Jul 28 07:58:00 CST 2018 0 14656
Deep Learning 学习随记(八)CNN(Convolutional neural network)理解

前面Andrew Ng的讲义基本看完了。Andrew讲的真是通俗易懂,只是不过瘾啊,讲的太少了。趁着看完那章convolution and pooling, 自己又去翻了翻CNN的相关东西。 当时看讲义时,有一点是不太清楚的,就是讲义只讲了一次convolution和一次pooling ...

Tue Nov 26 18:35:00 CST 2013 0 11565
《机器学习(周志华)》笔记--神经网络(6)--其他常见神经网络:深度学习模型、深度学习的兴起(历史)、卷积神经网络(CNN)、局部连接、权值共享、卷积操作(convolution)、操作(pooling)、随机失活(dropout)、Lenet-5

四、其他常见神经网络 1、深度学习模型   感知机只包括输入层和输出层,只能处理线性任务,为了处理非线性任务,在输入和输出之间加入了隐层,隐层的目的是对数据进行加工处理传递给输出层。   为了解决更为复杂的问题,我们需要提升模型的学习能力,这时要增加模型的复杂度,有两种策略 ...

Sun Feb 16 00:09:00 CST 2020 0 666
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM