github地址:https://github.com/zhanghang1989/ResNeSt 论文地址:https://hangzhang.org/files/resnest.pdf 2020.06.23 张航视频讲解ResNeSt:https://www.bilibili.com ...
paper: ResNeSt: Split Attention Networks code: ResNeSt Mxnet amp PyTorch版本 Abstract ResNeSt是对ResNext的又一个魔改的变种,亚马逊李沐团队的作品,其中S代表split,可以理解为按channel切分的feature map。ResNeSt是在ResNeXt的cardinality基础上又引入一个radi ...
2020-05-18 22:30 0 944 推荐指数:
github地址:https://github.com/zhanghang1989/ResNeSt 论文地址:https://hangzhang.org/files/resnest.pdf 2020.06.23 张航视频讲解ResNeSt:https://www.bilibili.com ...
Graph Attention Networks 2018-02-06 16:52:49 Abstract: 本文提出一种新颖的 graph attention networks (GATs), 可以处理 graph 结构的数据,利用 masked ...
Fully Convolutional Attention Localization Networks: Efficient Attention Localization for Fine-Grained Recognition 细粒度的识别(Fine-grained ...
Recurrent Models of Visual Attention Google DeepMind 模拟人类看东西的方式,我们并非将目光放在整张图像上,尽管有时候会从总体上对目标进行把握,但是也是将目光按照某种次序(例如,从上倒下,从左到右等等)在图像上进行扫描,然后从一个区域 ...
Attention Is All You Need 2018-04-17 10:35:25 Paper:http://papers.nips.cc/paper/7181-attention-is-all-you-need.pdf Code(PyTorch Version ...
Decoupled Dynamic Filter Networks 2021.5.6 CVPR 2021 https://arxiv.org/abs/2104.14107 Introduction 卷积缺点在于:内容不变,计算量高 动态filter可以根据内容 ...
作者提出为了增强网络的表达能力,现有的工作显示了加强空间编码的作用。在这篇论文里面,作者重点关注channel上的信息,提出了“Squeeze-and-Excitation"(SE)block,实际上就是显式的让网络关注channel之间的信息 (adaptively recalibrates ...
论文笔记 《Maxout Networks》 && 《Network In Network》 发表于 2014-09-22 | 1条评论 出处 maxout:http://arxiv.org/pdf/1302.4389v4.pdfNIN ...