原文:[論文理解] Squeeze-and-Excitation Networks

Squeeze and Excitation Networks 簡介 SENet提出了一種更好的特征表示結構,通過支路結構學習作用到input上更好的表示feature。結構上是使用一個支路去學習如何評估通道間的關聯,然后作用到原feature map上去,實現對輸入的校准。支路的幫助學習到的是神經網絡更加適合的表示。為了使網絡通過全局信息來衡量通道關聯,結構上使用了global pooling捕 ...

2019-09-08 15:27 0 476 推薦指數:

查看詳情

論文筆記-Squeeze-and-Excitation Networks

作者提出為了增強網絡的表達能力,現有的工作顯示了加強空間編碼的作用。在這篇論文里面,作者重點關注channel上的信息,提出了“Squeeze-and-Excitation"(SE)block,實際上就是顯式的讓網絡關注channel之間的信息 (adaptively recalibrates ...

Fri Jan 05 07:10:00 CST 2018 0 1375
[論文理解] Spatial Transformer Networks

Spatial Transformer Networks 簡介 本文提出了能夠學習feature仿射變換的一種結構,並且該結構不需要給其他額外的監督信息,網絡自己就能學習到對預測結果有用的仿射變換。因為CNN的平移不變性等空間特征一定程度上被pooling等操作破壞了,所以,想要網絡能夠應對 ...

Mon Sep 09 06:36:00 CST 2019 0 362
[論文理解] Learning Efficient Convolutional Networks through Network Slimming

Learning Efficient Convolutional Networks through Network Slimming 簡介 這是我看的第一篇模型壓縮方面的論文,應該也算比較出名的一篇吧,因為很早就對模型壓縮比較感興趣,所以抽了個時間看了一篇,代碼也自己實現了一下,覺得還是挺容易 ...

Tue Oct 01 08:42:00 CST 2019 1 1130
[論文理解] Making Convolutional Networks Shift-Invariant Again

Making Convolutional Networks Shift-Invariant Again Intro 本文提出解決CNN平移不變性喪失的方法,之前說了CNN中的downsample過程由於不滿足采樣定理,所以沒法確保平移不變性。信號處理里面解決這樣的問題是利用增大采樣頻率或者用抗 ...

Thu Jan 23 11:20:00 CST 2020 1 819
[論文理解] CapsuleNet

CapsuleNet 前言 找了很多資料,終於把整個流程搞懂了,其實要懂這個運算並不難,難的對我來說是怎么用代碼實現,也找了github上的一些代碼來看,對我來說都有點冗長,變量分布太遠導致我腦袋炸了,所以我就在B站找視頻看看有沒有代碼講解,算是不負苦心吧,終於把實現部分解決了。 不寫論文 ...

Mon Oct 14 10:14:00 CST 2019 0 427
 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM