原文:论文阅读笔记六十二:RePr: Improved Training of Convolutional Filters(CVPR2019)

论文原址:https: arxiv.org abs . 摘要 一个训练好的网络模型由于其模型捕捉的特征中存在大量的重叠,可以在不过多的降低其性能的条件下进行压缩剪枝。一些skip Dense网络结构一定程度上减弱了重叠的现象,但这种做法引入了大量的计算及内存。本文从更改训练方式的角度来解决上述问题。本文发现,通过对模型进行临时裁剪,并对一定的filter进行恢复,重复操作,可以减少特征中的重叠效 ...

2019-05-19 10:23 0 714 推荐指数:

查看详情

论文阅读笔记六十一:Selective Kernel Networks(SKNet CVPR2019)

论文原址:https://arxiv.org/pdf/1903.06586.pdf github: https://github.com/implus/SKNet 摘要 在标准的卷积网络中,每层网络中神经元的感受野的大小都是相同的。在神经学中,视觉神经元感受野的大小 ...

Sun May 12 19:12:00 CST 2019 2 2936
GHM论文笔记CVPR2019

目录 作者要解决的问题 Focal loss(CVPR2017) Focal loss的解决方案 Focal loss的不足 设计思路 梯度与样本的关系 梯度模计算方法 改进 ...

Tue Dec 03 04:46:00 CST 2019 0 568
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM