花费 5 ms
深度拾遗(01) - 梯度爆炸/梯度消失/Batch Normal

什么是梯度爆炸/梯度消失? 深度神经网络训练的时候,采用的是反向传播方式,该方式使用链式求导,计算每层梯度的时候会涉及一些连乘操作,因此如果网络过深。 那么如果连乘的因子大部分小于1,最后乘积的结果 ...

Sun Dec 17 18:37:00 CST 2017 0 4772
深度拾遗(03) - 上采样/下采样/卷积/逆卷积

上采样/下采样 缩小图像(或称为下采样(subsampled)或降采样(downsampled))的主要目的有两个:1、使得图像符合显示区域的大小;2、生成对应图像的缩略图。 放大图像(或称为上采样 ...

Mon Dec 18 00:07:00 CST 2017 0 2280

 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM