這篇論文先舉例子解釋了為什么卷積無法直接應用在點雲數據上。
如圖1, 傳統的卷積是作用在2維圖像數據上。圖像中每個像素的順序是固定的,也就是說數據是結構化存儲的。直接使用conv2d就能從這種潛在的空間結構中獲取信息。
而點雲數據是點集,如果直接使用卷積會出現圖中234多種情況
若直接使用卷積,則f2與f3的計算結果是相等的,但是從圖中可知,23顯示不同,這說明卷積無法獲得點的空間信息
而f3與f4的計算結果不等,但是圖3與圖4是相同的點集,必須得到相同的計算結果才合理,這說明卷積無法適應點集的N!種排列。
在其他論文里,為了適應點雲數據的這兩種的特點采取的方式有體素化、3DCNN及PointNet提的對稱操作(symmetric,這個翻譯是我自己譯的)
版權聲明:本文為CSDN博主「Link2Link」的原創文章,遵循 CC 4.0 BY-SA 版權協議,轉載請附上原文出處鏈接及本聲明。
原文鏈接:https://blog.csdn.net/qq_15602569/article/details/79560614
卷積神經網絡(Conv)能夠很好利用原始數據的在空間上的局部相關性(Spatially-local correlation),這也正是卷積神經網絡在各種分割或者分類任務中取得成功的關鍵。正是如此,作者設想是否能效仿卷積神經網絡來很好的利用點雲(Point Cloud)的空間上的局部相關性,這將在點雲分割和分類上取得很大的成功。所以這篇文章的重點就在於怎么利用這種相關性。
版權聲明:本文為CSDN博主「JMU-HSF」的原創文章,遵循 CC 4.0 BY-SA 版權協議,轉載請附上原文出處鏈接及本聲明。
原文鏈接:https://blog.csdn.net/weixin_42956785/article/details/86586513
首先,根據采樣得到的中心點,將全局坐標變為局部坐標,相當於分區。(點的數量如何確定?)
o 利用MLP將每個點變換到高維空間(一維卷積),得到F-sigma
o Concat特征F(輸入的每個點的附加特征,比如color或者normal)和F-sigma,得到新的特征F*
o 對每個局部區域中的點使用MLP,得到變換矩陣X。這里可以注意一下,得到變換矩陣X的過程,輸入是P'(一組坐標點),輸出是變換矩陣X。文中的消除實驗表明,X變換的確是有效果的
o 對特征F*使用X進行變換后,在進行傳統的卷積(1維)。作者是希望通過X變換,把特征F*變成空間相關,也就是希望矩陣中相鄰的在空間中也相鄰,這樣就可以像圖像一樣卷積了。
鏈接:https://zhuanlan.zhihu.com/p/89752154
來源:知乎
著作權歸作者所有。商業轉載請聯系作者獲得授權,非商業轉載請注明出處。
https://blog.csdn.net/qq_33278989/article/details/80047252