作者:仲夏夜之星
來源:公眾號@3D視覺工坊
論文標題:Point Pair Features Based Object Detection and Pose Estimation Revisited
下載方式:在公眾號「3D視覺工坊」,后台回復「PPF物體檢測」,即可直接下載。
摘要:本文基於原始點對特征對於三維目標識別與位姿估計提出了一種改進的通道,該方法采用自相似點對表示三維目標對象,然后在簡化的位姿參數空間上使用高效的霍夫投票方案將該模型與三維場景匹配,將目標檢測與粗到細的分割相結合,其中每個分割都要進行不相交的姿態估計,在匹配過程中,采用加權霍夫投票和位姿參數插值恢復。最后,對所有生成的假設位姿進行排序,本文認為這種組合通道同時提高了檢測率和降低了復雜性,同時提高了結果姿態的准確性,由於這種增強的位姿檢索,我們的驗證不需要ICP,從而達到更好的速度和准確性。
一 本文方法
本文建模和匹配框架遵循Drost.et al[1],貢獻在於一個增強的模式表示,以及引入分割進入投票和快速假設驗證。
1.1模型表示
1.1.1表面特征
對於物體表面的兩個點、,其點對特征可以定義為
其中表示兩個表面點的距離,表示兩個向量之間的角度
1.1.2計算模型法線
本文使用的特征大多都使用了法線,但總存在一些不太准確的估計,針對該問題,協方差矩陣的特征分解更好地解決了此問題。但由於平面斑塊不能很好地表示局部結構的鄰域,因此一階方法不能准確地表示三維模型。一種更好的方法是使用二階項,其中凹凸性也可以建模。盡管在線階段計算二階近似代價很高,但在離線階段使用它們是安全的。因此,目標是找到一個二階多項式的參數,近似鄰近點的高度場,給定一個局部參考系,形式上,給定集合的點, MLS通過在局部k鄰域中擬合一個m階曲面並將這個點投影到這個曲面上進行操作,擬合本質上是多項式表面參數的一種標准加權最小二乘估計,這是由權重函數決定的,點被投影到二階曲面上。對所有的點重復這個過程,從而得到一個具有良好定義法線的平滑點集。
1.1.3模型點權重
給定一個半球Ω,集合在一個表面上的點與正常n可以通過計算獲得可見度函數的積分,V是一個狄拉克函數,定義為1如果p在w的方向被遮擋,否則為0,這個積分通過從幾個角度渲染模型和積累每個頂點的可見性來逼近。然后將余弦加權平均值報告為頂點方向的遮擋值。基於,本文建議對哈希表的條目進行權衡。因此,給定哈希表容器,我們的權重只是和的標准化幾何平均值。
1.1.4全局描述
根據提取出來的PPF,實現了全局描述作為一個映射特性空間到空間的哈希表點對。為了做到這一點,距離和角度是和的采樣步長分別為。然后將這些量化的特性用作哈希表的鍵。點對特性映射到相同的部分中並組合在一起放在同一bin里。為了降低計算復雜度,在下采樣在這個階段,要將所有的點整合到一起其至少為距離,本文使用泊松函數磁盤采樣算法。
1.2在線匹配
1.2.1投票機制
對於固定的場景點對,我們尋求最優模型對應計算匹配和六自由度位姿。本文采用一種類似於廣義霍夫變換的投票機制,投票可以直接在6DOF位姿空間上進行,Drost等提出了一種有效的方案,利用局部坐標將投票空間縮減為2D。只要找到一個模型對,對應於一個場景對,就建立一個中間坐標系,其中和通過物體圍繞法線旋轉來對齊。預先計算了該模型的平面旋轉角曲線,在線計算了場景點的類似曲線。通過簡單的減法求出了平面繞x軸的旋轉角,即:.
1.2.2位姿聚類
對於投票后的位姿進行排序,作為對不相交的部分集群進行投票的結果,每個場景參考獲得一個姿勢候選。這些候選位姿分別為每個片段分組。一個聚集聚類加上良好的姿態平均方案被認為是合理准確的。最初,候選姿勢按票數計算被排序。最高的投票創造了第一個集群,只創建一個新的姿態集群,如果候選姿態明顯偏離現有的簇。當一個姿態被添加到集群中時,集群平均值將被更新 聚類分數增加,得到新的候選位姿。所描述的聚類需要一個姿態平均步驟,訪問每個候選姿勢一次。為了准確起見, 使用旋轉矩陣是禁止的,因為它們不能直接平均。
1.2.3假設檢驗
本文方法為每個對象生成一組假設,具有合理的位姿精度。然而,如此龐大的假設集需要一個有效的驗證方案和典型的策略,如Hinterstoister et al.[2],要么將ICP放入回路,然而,對於本文方法,姿態精度不用ICP來進行精調,為了驗證所收集的假設並對其進行排序,將可見空間按照如下投影誤差函數分為3個類別:雜波(離群點)、遮擋物和模型上的點:其中選擇模型的投影點M對應像素p,給定一個攝像機矩陣K和假設h的姿態參數,對給定的有效點p進行分類為:
然后,給定假設的分數為:
模型點的數量的有效區域的投影,閾值和依賴於傳感器,由於傳感器沒有獲得缺失點,閾值被放寬。這個度量有利於更少的遮擋和更少的雜亂匹配,擁有更多法線一致的模型點。然而,實驗中,發現使用過濾后的聚類增加了假設下降姿勢的機會,而這只有在很少被驗證錯過的情況下才會發生。
二實驗
2.1 模擬合成實驗
圖1投票策略的比較
2.2真實場景
圖2 定性結果a)本文數據中的檢測結果,在遠程Kinect掃描中存在小物體b)對ACCV3D數據集的位姿估計結果
參考文獻
[1] M. Alexa, J. Behr, D. Cohen-Or, S. Fleishman, D. Levin, and C. T. Silva. Computing and rendering point set surfaces .Visualization and Computer Graphics, IEEE Transactions on,9(1):3–15, 2003.[2] S. Hinterstoisser, V. Lepetit, S. Ilic, S. Holzer, G. Bradski,K.Konolige, and N. Navab. Model based training, detection and pose estimation of texture-less 3d objects in heavily cluttered scenes. In Computer Vision–ACCV 2012, pages 548–562. Springer, 2013.
本文僅做學術分享,如有侵權,請聯系刪文。
下載1在「3D視覺工坊」公眾號后台回復:3D視覺,即可下載 3D視覺相關資料干貨,涉及相機標定、三維重建、立體視覺、SLAM、深度學習、點雲后處理、多視圖幾何等方向。
下載2在「3D視覺工坊」公眾號后台回復:3D視覺github資源匯總,即可下載包括結構光、標定源碼、缺陷檢測源碼、深度估計與深度補全源碼、點雲處理相關源碼、立體匹配源碼、單目、雙目3D檢測、基於點雲的3D檢測、6D姿態估計匯總等。
下載3在「3D視覺工坊」公眾號后台回復:相機標定,即可下載獨家相機標定學習課件與視頻網址;后台回復:立體匹配,即可下載獨家立體匹配學習課件與視頻網址。