原文:論文筆記-ResNeSt-Split-Attention Networks

paper: ResNeSt: Split Attention Networks code: ResNeSt Mxnet amp PyTorch版本 Abstract ResNeSt是對ResNext的又一個魔改的變種,亞馬遜李沐團隊的作品,其中S代表split,可以理解為按channel切分的feature map。ResNeSt是在ResNeXt的cardinality基礎上又引入一個radi ...

2020-05-18 22:30 0 944 推薦指數:

查看詳情

論文筆記之:Graph Attention Networks

Graph Attention Networks 2018-02-06 16:52:49 Abstract:   本文提出一種新穎的 graph attention networks (GATs), 可以處理 graph 結構的數據,利用 masked ...

Fri Nov 24 18:22:00 CST 2017 1 2316
論文筆記之: Recurrent Models of Visual Attention

Recurrent Models of Visual Attention Google DeepMind   模擬人類看東西的方式,我們並非將目光放在整張圖像上,盡管有時候會從總體上對目標進行把握,但是也是將目光按照某種次序(例如,從上倒下,從左到右等等)在圖像上進行掃描,然后從一個區域 ...

Sat May 28 23:06:00 CST 2016 1 13684
論文筆記Attention Is All You Need

Attention Is All You Need 2018-04-17 10:35:25 Paper:http://papers.nips.cc/paper/7181-attention-is-all-you-need.pdf Code(PyTorch Version ...

Tue Apr 17 18:46:00 CST 2018 0 1117
論文筆記《Decoupled Dynamic Filter Networks

Decoupled Dynamic Filter Networks 2021.5.6 CVPR 2021 https://arxiv.org/abs/2104.14107 Introduction 卷積缺點在於:內容不變,計算量高 動態filter可以根據內容 ...

Wed May 12 00:15:00 CST 2021 0 1394
論文筆記-Squeeze-and-Excitation Networks

作者提出為了增強網絡的表達能力,現有的工作顯示了加強空間編碼的作用。在這篇論文里面,作者重點關注channel上的信息,提出了“Squeeze-and-Excitation"(SE)block,實際上就是顯式的讓網絡關注channel之間的信息 (adaptively recalibrates ...

Fri Jan 05 07:10:00 CST 2018 0 1375
 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM