關於視覺SLAM中特征點法,光流法和直接法的區別和理解


視覺SLAM中特征點法,光流法,直接法的區別和理解
1.特征點法
簡介:顧名思義,特征點法就是對圖像提取特征,對圖像特征進行跟蹤的過程。

有關特征點的介紹:
特征點一般包括了兩部分:關鍵點和描述子
常用特征點:SIFT,SURF,ORB等
關鍵點:通過對圖像取不同響應值得到的,如各種角點:例如最出名的FAST角點(ORBSLAM中所使用的特征點類型),Harries角點等
描述子:描述圖像關鍵點的信息,如BRIFE描述子就可以輕量化的完成對關鍵點的信息記錄,如在ORBSLAM(ORB=FAST角點+BRIFE描述子)當中,旋轉不變性是由光度質心不變原理解決的,尺度不變性是由金字塔來解決的。

特征點在SLAM系統中的作用如下:

前端視覺里程計:通過匹配特征點求取位姿變換,從而估計相機位姿,
后端優化:通過非線性優化的方法或者擴展卡爾曼濾波(EKF)通過路標點(特征點)對位姿進行進一步的優化。
回環檢測:在有回環檢測的情況下,可以通過FAB-MAP建立的特征點詞袋(一類特征點通過聚類形成的一個包),對機器人是否檢測回環進行判定。

特征點法的優缺點:(相對於其他算法的比較)
優點:
1.理論成熟,研究和應用也是最廣泛的,如ORBSLAM。
2.通過特征點建立的詞袋(如FABMAP通過視覺特征進行聚類得到的特征點簇可以記作一個詞,通過判定詞的有無來判定是否回環),可以進行回環檢測的判定。
3.基於特征點的算法,由於有描述子可以很穩定且魯棒的對於視覺的特征進行描述,所以其不易受到光照的影響
缺點:
1.對無紋理或者弱紋理會出現特征點匹配困難,比如管型腔體內,白色的牆面
2.關鍵點和描述子消耗計算資源比較大,實時性不高。
3.圖像利用率不高,除了特征點其他點幾乎對於SLAM系統沒有太大貢獻。

2.光流法和直接法
簡介:把這兩個放在一起講是由於這兩個直接法其實是由光流法演變過去的,它們都有一個共同而強烈的假設:光度(也可以叫做灰度)不變性。
光流法可以通過跟蹤關鍵點(可以是FAST角點,沒有描述子)來優化使得圖像當中的兩個對應的位置光度誤差最小來估計相機的運動。
直接法相當於在這個基礎上對前面估計的相機位姿進行進一步優化,因為這樣的位姿很難保證全局最優性,例如在SVO(稀疏直接法)中,會對過去估計好的位姿通過用過去已經收斂的插入的地圖點進行進一步全局的位姿優化。這使得位姿的估計更加的准確和魯棒。
優點:
1.計算量小,實時性高。如SVO2.0的位姿估計算法在I7的平台上可以實現400幀每秒的速度
2.通過直接法的方式可以不需要有明顯的紋理特征,只要一副圖像當中有灰度變化即可,在沒有特征點的時候甚至可以隨機取點.
3.圖像的利用率較高,可以利用這一點對圖像進行半稠密或者稠密的重建。
缺點:

由於強烈假設的原因,對於圖像的光度變化比較敏感
單純圖像的梯度來求取位姿的話,由於圖像的非凸性,容易陷入局部最優
目前的直接法如SVO可能設計回環檢測比較困難,不過高博士對DSO做了一個回環檢測的內容具體還沒看,有興趣的可以參考https://vision.in.tum.de/research/vslam/ldso
總結
在視覺SLAM中,特征點法和直接法都是視覺SLAM中非常重要的組成部分,特征點法通過最小化重投影誤差來計算相機位姿與地圖點的位置,而直接法則最小化光度誤差(photometric error)。所謂光度誤差是說,這個最小化的目標函數,通常由圖像之間的誤差來決定,而非重投影之后的幾何誤差。
ps:
第一次寫博客,可能文章不是非常謹慎,有問題或者疑問的地方希望大家可以多多評論和私信哦,我會及時回復的。
常用SLAM框架的論文我放到這里了,有需要的小可愛可以下載鏈接:https://pan.baidu.com/s/149hZE9Ql5dv0pMVBjTGY_A
提取碼:1r85
這是我做SLAM的看論文的一些匯總,希望可以一鍵三連哦
有關直接法SVO的解析可以看這篇博客,講解的很好,包括公式的推導和程序的解析都比較有幫助:https://blog.csdn.net/heyijia0327/article/details/51083398

參考文獻:
[1] 高翔、張濤《視覺SLAM十四講》
[2] Ra´ul Mur-Artal and Juan D. Tard´os. ORB-SLAM2: An Open-Source SLAM System for Monocular, Stereo,and RGB-D Cameras.[J] IEEE TRANSACTIONS ON ROBOTICS VOL. 33, NO. 5, OCTOBER 2017
[3] Christian Forster et al. SVO: Semidirect Visual Odometry for Monocular and Multicamera Systems.[J]. IEEE TRANSACTIONS ON ROBOTICS,VOL. 33, NO. 2, APRIL 2017
[4].[https://blog.csdn.net/heyijia0327/article/details/51083398]

原文鏈接:https://blog.csdn.net/LEAVESJUN/article/details/111502852


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM