github地址:https://github.com/zhanghang1989/ResNeSt 論文地址:https://hangzhang.org/files/resnest.pdf 2020.06.23 張航視頻講解ResNeSt:https://www.bilibili.com ...
paper: ResNeSt: Split Attention Networks code: ResNeSt Mxnet amp PyTorch版本 Abstract ResNeSt是對ResNext的又一個魔改的變種,亞馬遜李沐團隊的作品,其中S代表split,可以理解為按channel切分的feature map。ResNeSt是在ResNeXt的cardinality基礎上又引入一個radi ...
2020-05-18 22:30 0 944 推薦指數:
github地址:https://github.com/zhanghang1989/ResNeSt 論文地址:https://hangzhang.org/files/resnest.pdf 2020.06.23 張航視頻講解ResNeSt:https://www.bilibili.com ...
Graph Attention Networks 2018-02-06 16:52:49 Abstract: 本文提出一種新穎的 graph attention networks (GATs), 可以處理 graph 結構的數據,利用 masked ...
Fully Convolutional Attention Localization Networks: Efficient Attention Localization for Fine-Grained Recognition 細粒度的識別(Fine-grained ...
Recurrent Models of Visual Attention Google DeepMind 模擬人類看東西的方式,我們並非將目光放在整張圖像上,盡管有時候會從總體上對目標進行把握,但是也是將目光按照某種次序(例如,從上倒下,從左到右等等)在圖像上進行掃描,然后從一個區域 ...
Attention Is All You Need 2018-04-17 10:35:25 Paper:http://papers.nips.cc/paper/7181-attention-is-all-you-need.pdf Code(PyTorch Version ...
Decoupled Dynamic Filter Networks 2021.5.6 CVPR 2021 https://arxiv.org/abs/2104.14107 Introduction 卷積缺點在於:內容不變,計算量高 動態filter可以根據內容 ...
作者提出為了增強網絡的表達能力,現有的工作顯示了加強空間編碼的作用。在這篇論文里面,作者重點關注channel上的信息,提出了“Squeeze-and-Excitation"(SE)block,實際上就是顯式的讓網絡關注channel之間的信息 (adaptively recalibrates ...
論文筆記 《Maxout Networks》 && 《Network In Network》 發表於 2014-09-22 | 1條評論 出處 maxout:http://arxiv.org/pdf/1302.4389v4.pdfNIN ...