原文:论文笔记-ResNeSt-Split-Attention Networks

paper: ResNeSt: Split Attention Networks code: ResNeSt Mxnet amp PyTorch版本 Abstract ResNeSt是对ResNext的又一个魔改的变种,亚马逊李沐团队的作品,其中S代表split,可以理解为按channel切分的feature map。ResNeSt是在ResNeXt的cardinality基础上又引入一个radi ...

2020-05-18 22:30 0 944 推荐指数:

查看详情

论文笔记之:Graph Attention Networks

Graph Attention Networks 2018-02-06 16:52:49 Abstract:   本文提出一种新颖的 graph attention networks (GATs), 可以处理 graph 结构的数据,利用 masked ...

Fri Nov 24 18:22:00 CST 2017 1 2316
论文笔记之: Recurrent Models of Visual Attention

Recurrent Models of Visual Attention Google DeepMind   模拟人类看东西的方式,我们并非将目光放在整张图像上,尽管有时候会从总体上对目标进行把握,但是也是将目光按照某种次序(例如,从上倒下,从左到右等等)在图像上进行扫描,然后从一个区域 ...

Sat May 28 23:06:00 CST 2016 1 13684
论文笔记Attention Is All You Need

Attention Is All You Need 2018-04-17 10:35:25 Paper:http://papers.nips.cc/paper/7181-attention-is-all-you-need.pdf Code(PyTorch Version ...

Tue Apr 17 18:46:00 CST 2018 0 1117
论文笔记《Decoupled Dynamic Filter Networks

Decoupled Dynamic Filter Networks 2021.5.6 CVPR 2021 https://arxiv.org/abs/2104.14107 Introduction 卷积缺点在于:内容不变,计算量高 动态filter可以根据内容 ...

Wed May 12 00:15:00 CST 2021 0 1394
论文笔记-Squeeze-and-Excitation Networks

作者提出为了增强网络的表达能力,现有的工作显示了加强空间编码的作用。在这篇论文里面,作者重点关注channel上的信息,提出了“Squeeze-and-Excitation"(SE)block,实际上就是显式的让网络关注channel之间的信息 (adaptively recalibrates ...

Fri Jan 05 07:10:00 CST 2018 0 1375
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM