無序性:雖然輸入的點雲是有順序的,但是顯然這個順序不應當影響結果。
點之間的交互:每個點不是獨立的,而是與其周圍的一些點共同蘊含了一些信息,因而模型應當能夠抓住局部的結構和局部之間的交互。
變換不變性:比如點雲整體的旋轉和平移不應該影響它的分類或者分割
圖片中"mlp"代表"multi-layer perceptron"(多層感知機)。其中,mlp是通過共享權重的卷積實現的,第一層卷積核大小是1x3(因為每個點的維度是xyz),之后的每一層卷積核大小都是1x1。即特征提取層只是把每個點連接起來而已。經過兩個空間變換網絡和兩個mlp之后,對每一個點提取1024維特征,經過maxpool變成1x1024的全局特征。再經過一個mlp(代碼中運用全連接)得到k個score。分類網絡最后接的loss是softmax。
為了對各種幾何空間轉換有不變的特性,作者設計了一個T-Net的架構
Joint Alignment Network:為了對各種幾何空間轉換有不變的特性,作者設計了一個T-Net的架構,類似Image中的Spatial Transformer Network,這樣的T-Net可以在Input或是中間的Feature Layer中學習出有效的Affine Transformation Matrix,讓不同的Point Cloud Data的Feature可以對齊在一塊。微型網絡(T-Net)學習一個獲得
變換矩陣的函數,並對初始點雲應用這個變換矩陣,這一部分被稱為
輸入變換。隨后通過一個mlp多層感知機后,再應用一次變換矩陣(
特征變換)和多層感知機,最后進行一次最大池化。
![[公式]](/image/aHR0cHM6Ly93d3cuemhpaHUuY29tL2VxdWF0aW9uP3RleD0zJTVDdGltZXMrMw==.png)
作者:隅子醬
鏈接:https://zhuanlan.zhihu.com/p/75145963
來源:知乎
著作權歸作者所有。商業轉載請聯系作者獲得授權,非商業轉載請注明出處。