原文:[论文理解] Making Convolutional Networks Shift-Invariant Again

Making Convolutional Networks Shift Invariant Again Intro 本文提出解决CNN平移不变性丧失的方法,之前说了CNN中的downsample过程由于不满足采样定理,所以没法确保平移不变性。信号处理里面解决这样的问题是利用增大采样频率或者用抗混叠方法,前者在图像处理里面设置stride 就可实现,但stride 已经是极限,本文着重于后者,使用抗 ...

2020-01-23 03:20 1 819 推荐指数:

查看详情

Shift-Invariant论文笔记

ICML 2019 Making Convolutional Networks Shift-Invariant Again ICML 2019 Making Convolutional Networks Shift-Invariant Again 如果笔记 ...

Wed Jun 26 00:40:00 CST 2019 0 1489
[论文理解] Learning Efficient Convolutional Networks through Network Slimming

Learning Efficient Convolutional Networks through Network Slimming 简介 这是我看的第一篇模型压缩方面的论文,应该也算比较出名的一篇吧,因为很早就对模型压缩比较感兴趣,所以抽了个时间看了一篇,代码也自己实现了一下,觉得还是挺容易 ...

Tue Oct 01 08:42:00 CST 2019 1 1130
[论文理解] Squeeze-and-Excitation Networks

Squeeze-and-Excitation Networks 简介 SENet提出了一种更好的特征表示结构,通过支路结构学习作用到input上更好的表示feature。结构上是使用一个支路去学习如何评估通道间的关联,然后作用到原feature map上去,实现对输入的校准。支路的帮助 ...

Sun Sep 08 23:27:00 CST 2019 0 476
[论文理解] Spatial Transformer Networks

Spatial Transformer Networks 简介 本文提出了能够学习feature仿射变换的一种结构,并且该结构不需要给其他额外的监督信息,网络自己就能学习到对预测结果有用的仿射变换。因为CNN的平移不变性等空间特征一定程度上被pooling等操作破坏了,所以,想要网络能够应对 ...

Mon Sep 09 06:36:00 CST 2019 0 362
[论文理解] CapsuleNet

CapsuleNet 前言 找了很多资料,终于把整个流程搞懂了,其实要懂这个运算并不难,难的对我来说是怎么用代码实现,也找了github上的一些代码来看,对我来说都有点冗长,变量分布太远导致我脑袋炸了,所以我就在B站找视频看看有没有代码讲解,算是不负苦心吧,终于把实现部分解决了。 不写论文 ...

Mon Oct 14 10:14:00 CST 2019 0 427
RetinaNet论文理解

引言 介绍 目前精度高的检测器都是基于two-stage,proposal-driven机制,第一阶段生成稀疏的候选对象位置集,第二阶段使用CNN进一步将每个候选位置分为前景或者背景以及 ...

Sat Mar 02 18:53:00 CST 2019 0 4178
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM