【論文】CornerNet:幾點疑問


1.cornerpooling的設計,個人覺得解釋有些牽強。

這里的兩個特征圖如何解釋,corner點為何是橫向與縱向響應最強的點。如果僅僅當成一種奇特的池化方式,恰好也有着不錯的效果,那倒是可以接受,論文中的解釋實在難以接受。

 看了CSDN AI之路的博客https://blog.csdn.net/u014380165/article/details/83032273,似乎有些理解了。特此摘抄下來。


 

如圖Figure2所示。因此CornerNet是預測左上角和右下角兩個角點,但是這兩個角點在不同目標上沒有相同規律可循,如果采用普通池化操作,那么在訓練預測角點支路時會比較困難。考慮到左上角角點的右邊有目標頂端的特征信息(第一張圖的頭頂),左上角角點的下邊有目標左側的特征信息(第一張圖的手),因此如果左上角角點經過池化操作后能有這兩個信息,那么就有利於該點的預測,這就有了corner pooling。


 

2.heapmap的損失函數,角點周圍的像素按照高斯分布處理可以理解,畢竟離角點比較近的點形成的bbox與gt相交面積應該不小,與較遠的點不可相同而論。然而這個損失函數我有點疑惑,y=1的時候尚可理解,此時要想損失接近零,p應該接近1,可是其它情況就有問題了。

且看這個函數(1-y)β(p)αlog(1-p),只要p為0,不管y等於什么,表達式都等於0啊。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM