花费 7 ms
【卷积神经网络】对BN层的解释

前言 Batch Normalization是由google提出的一种训练优化方法。参考论文:Batch Normalization Accelerating Deep Net ...

Mon Sep 24 03:03:00 CST 2018 1 8596
上采样和PixelShuffle(转)

有些地方还没看懂, mark一下 文章来源: https://blog.csdn.net/g11d111/article/details/82855946 去年曾 ...

Mon Dec 10 07:46:00 CST 2018 0 5142
[卷积]空洞卷积的改进

文章来源: https://zhuanlan.zhihu.com/p/50369448 从这几年的分割结果来看,基于空洞卷积的分割方法效果要好一些,为此,拿出两天时间来重新思考下空洞卷积问 ...

Thu Dec 27 05:33:00 CST 2018 0 4508
反卷积(转置卷积)的理解

参考:打开链接 卷积: 就是这个图啦,其中蓝色部分是输入的feature map,然后有3*3的卷积核在上面以步长为2的速度滑动,可以看到周围还加里一圈padding,用更标准化的参数方式来描述这 ...

Mon Dec 10 07:23:00 CST 2018 0 3457
【Bilinear interpolation】双线性插值详解(转)

最近在做视频拼接的项目,里面用到了图像的单应性矩阵变换,在最后的图像重映射,由于目标图像的坐标是非整数的,所以需要用到插值的方法,用的就是双线性插值,下面的博文主要是查看了前辈的 ...

Wed Nov 21 00:59:00 CST 2018 0 2966

 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM