CNN煉丹瞎記錄 mobilenet & se-resnet


mobilenet

v1:深度可分離卷積 depthwise separable convolution
首先利用3×3的深度可分離卷積提取特征,然后利用1×1的卷積來擴張通道。用這樣的block堆疊起來的MobileNetV1既能較少不小的參數量、計算量,提高網絡運算速度,又能的得到一個接近於標准卷積的還不錯的結果

v2:linear bottleneck
ReLU導致了信息損耗,將最后一個ReLU替換成線性激活函數

可以發現,V2和resnet都采用了 1×1 -> 3 ×3 -> 1 × 1 的模式,以及都使用Shortcut結構。但是不同點呢:

ResNet 先降維 (0.25倍)、卷積、再升維。
MobileNetV2 則是 先升維 (6倍)、卷積、再降維。
剛好V2的block剛好與Resnet的block相反,作者將其命名為Inverted residuals。就是論文名中的Inverted residuals。

se-resnet

中心思想:對於每個輸出channel,預測一個常數權重,對每個channel加權一下。

對於每一輸出通道,先global average pool,每個通道得到1個標量,C個通道得到C個數,然后經過FC-ReLU-FC-Sigmoid得到C個0到1之間的標量,作為通道的權重,然后原來的輸出通道每個通道用對應的權重進行加權(對應通道的每個元素與權重分別相乘),得到新的加權后的特征,作者稱之為feature recalibration。

第一步每個通道HxW個數全局平均池化得到一個標量,稱之為Squeeze,然后兩個FC得到01之間的一個權重值,對原始的每個HxW的每個元素乘以對應通道的權重,得到新的feature map,稱之為Excitation。

Global Average Pooling-FC-ReLU-FC-Sigmoid


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM