你可能會想為什么有人會用1x1卷積,因為它關注的不是一塊像素,而是一個像素,圖1

圖1
我們看看傳統的卷積,它基本上是運行在一個小塊圖像上的小分類器,但僅僅是個線性分類器。圖2

圖2
如果你在中間加一個1x1卷積,你就用運行在一塊像素上的神經網絡代替了線性分類器。
在卷積操作中散步一些1x1卷積是一種使得模型變得更深的低耗高效的方法,並且會有更多的參數。圖3

圖3
這樣做沒有改變神經網絡的結構,他們非常簡單,因為如果你看到他們的數學公式,他們根本不是卷積。
只是矩陣相乘並且有較少的參數。
你可能會想為什么有人會用1x1卷積,因為它關注的不是一塊像素,而是一個像素,圖1

圖1
我們看看傳統的卷積,它基本上是運行在一個小塊圖像上的小分類器,但僅僅是個線性分類器。圖2

圖2
如果你在中間加一個1x1卷積,你就用運行在一塊像素上的神經網絡代替了線性分類器。
在卷積操作中散步一些1x1卷積是一種使得模型變得更深的低耗高效的方法,並且會有更多的參數。圖3

圖3
這樣做沒有改變神經網絡的結構,他們非常簡單,因為如果你看到他們的數學公式,他們根本不是卷積。
只是矩陣相乘並且有較少的參數。
本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。