pointcnn


這篇論文先舉例子解釋了為什么卷積無法直接應用在點雲數據上。

 

如圖1, 傳統的卷積是作用在2維圖像數據上。圖像中每個像素的順序是固定的,也就是說數據是結構化存儲的。直接使用conv2d就能從這種潛在的空間結構中獲取信息。

而點雲數據是點集,如果直接使用卷積會出現圖中234多種情況

        

    若直接使用卷積,則f2與f3的計算結果是相等的,但是從圖中可知,23顯示不同,這說明卷積無法獲得點的空間信息

    而f3與f4的計算結果不等,但是圖3與圖4是相同的點集,必須得到相同的計算結果才合理,這說明卷積無法適應點集的N!種排列。

    在其他論文里,為了適應點雲數據的這兩種的特點采取的方式有體素化、3DCNN及PointNet提的對稱操作(symmetric,這個翻譯是我自己譯的)
版權聲明:本文為CSDN博主「Link2Link」的原創文章,遵循 CC 4.0 BY-SA 版權協議,轉載請附上原文出處鏈接及本聲明。
原文鏈接:https://blog.csdn.net/qq_15602569/article/details/79560614


 

卷積神經網絡(Conv)能夠很好利用原始數據的在空間上的局部相關性(Spatially-local correlation),這也正是卷積神經網絡在各種分割或者分類任務中取得成功的關鍵。正是如此,作者設想是否能效仿卷積神經網絡來很好的利用點雲(Point Cloud)的空間上的局部相關性,這將在點雲分割和分類上取得很大的成功。所以這篇文章的重點就在於怎么利用這種相關性。
版權聲明:本文為CSDN博主「JMU-HSF」的原創文章,遵循 CC 4.0 BY-SA 版權協議,轉載請附上原文出處鏈接及本聲明。
原文鏈接:https://blog.csdn.net/weixin_42956785/article/details/86586513


 

 

首先,根據采樣得到的中心點,將全局坐標變為局部坐標,相當於分區。(點的數量如何確定?)

o 利用MLP將每個點變換到高維空間(一維卷積),得到F-sigma

o Concat特征F(輸入的每個點的附加特征,比如color或者normal)和F-sigma,得到新的特征F*

o 對每個局部區域中的點使用MLP,得到變換矩陣X。這里可以注意一下,得到變換矩陣X的過程,輸入是P'(一組坐標點),輸出是變換矩陣X。文中的消除實驗表明,X變換的確是有效果的

o 對特征F*使用X進行變換后,在進行傳統的卷積(1維)。作者是希望通過X變換,把特征F*變成空間相關,也就是希望矩陣中相鄰的在空間中也相鄰,這樣就可以像圖像一樣卷積了。

最后的Conv是一維卷積。可以看到X-Conv中所用的都還是一維卷積,不管是MLP還是Conv,作者在論文的腳注部分也提到了,代碼中也可以確認這一點。所以,作者用CNN做類比還是不太合適,唯一的共同點是尺寸的點的數量是由多變少,CNN中圖像尺寸也是由大到小
o 一個區域的點是怎么變成一個中心點的特征的?在PointNet++中,作者是對每一個局部區域進行Maxpool得到一個一維的向量作為中心點的特征,在pointCNN中並沒有使用maxpool。在本文中,最后一步使用了(1,K)的卷積核進行卷積,對每個區域中不同點的特征進行了融合,而在pointnet中,這一步是通過每個點對應維數的最大值,個人覺得,這是兩者之間最大的不同,可能也是導致結果差別的主要原因,但這只是猜測,后續還需要進行實驗驗證。在這一一步中,為了減少參數量,作者使用了深度可分離卷積,
作者:摸魚家
鏈接:https://zhuanlan.zhihu.com/p/89752154
來源:知乎
著作權歸作者所有。商業轉載請聯系作者獲得授權,非商業轉載請注明出處。

 https://blog.csdn.net/qq_33278989/article/details/80047252

 

 

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM