SLAM第一篇:基礎知識




無論在室內、野外、空中還是水下,SLAM是機器人進入未知環境遇到的第一個問題。本期給大家介紹SLAM的基礎知識:傳感器與視覺SLAM框架

近來年,智能機器人技術在世界范圍內得到了大力發展。人們致力於把機器人用於實際場景:從室內的移動機器人,到野外的自動駕駛汽車、空中的無人機、水下環境的探測機器人等等,均得到了廣泛的關注。

在大多數場合中,我們研究機器人會碰到一個基礎性的困難,那就是定位和建圖,也就是所謂的SLAM技術。沒有准確的定位與地圖,掃地機就無法在房間自主地移動,只能隨機亂碰;家用機器人就無法按照指令准確到達某個房間。此外,在虛擬現實(Virtual Reality)和增強現實技術(Argument Reality)中,沒有SLAM提供的定位,用戶就無法在場景中漫游。在這幾個應用領域中,人們需要SLAM向應用層提供空間定位的信息,並利用SLAM的地圖完成地圖的構建或場景的生成。

一、傳感器

當我們談論SLAM時,最先問到的就是傳感器。SLAM的實現方式與實現難度和傳感器的形式和安裝方式密切相關。傳感器分為激光和視覺兩大類,視覺下面又分三小方向。如此龐大的傳感器家族,下面將帶你認識每個成員的特性。

1、傳感器之激光雷達

激光雷達最古老,研究也最多的SLAM傳感器。它們提供機器人本體與周圍環境障礙物間的距離信息。常見的激光雷達,例如SICK、Velodyne還有我們國產的rplidar等,都可以拿來做SLAM。激光雷達能以很高精度測出機器人周圍障礙點的角度和距離,從而很方便地實現SLAM、避障等功能。
主流的2D激光傳感器掃描一個平面內的障礙物,適用於平面運動的機器人(如掃地機等)

歡迎光臨程序代寫小店https://item.taobao.com/item.htm?spm=a230r.1.14.59.255028c3ALNkZ0&id=586797758241&ns=1&abbucket=15#detail
可直接聯系客服QQ交代需求:953586085

進行定位,並建立2D的柵格地圖。這種地圖在機器人導航中很實用,因為多數機器人還不能在空中飛行或走上台階,仍限於地面。在SLAM研究史上,早期SLAM研究幾乎全使用激光傳感器進行建圖,且多數使用濾波器方法,例如卡爾曼濾波器與粒子濾波器等。

激光的優點是精度很高,速度快,計算量也不大,容易做成實時SLAM。缺點是價格昂貴,一台激光動輒上萬元,會大幅提高一個機器人的成本。因此激光的研究主要集中於如何降低傳感器的成本上。對應於激光的EKF-SLAM理論方面,因為研究較早,現在已經非常成熟。與此同時,人們也對EKF-SLAM的缺點也有較清楚的認識,例如不易表示回環、線性化誤差嚴重、必須維護路標點的協方差矩陣,導致一定的空間與時間的開銷,等等。

2、傳感器之視覺SLAM

視覺SLAM是21世紀SLAM研究熱點之一,一方面是因為視覺十分直觀,不免令人覺得:為何人能通過眼睛認路,機器人就不行呢?另一方面,由於CPU、GPU處理速度的增長,使得許多以前被認為無法實時化的視覺算法,得以在10 Hz以上的速度運行。硬件的提高也促進了視覺SLAM的發展。
以傳感器而論,視覺SLAM研究主要分為三大類:單目、雙目(或多目)、RGBD。其余還有魚眼、全景等特殊相機,但是在研究和產品中都屬於少數。此外,結合慣性測量器件(Inertial Measurement Unit,IMU)的視覺SLAM也是現在研究熱點之一。就實現難度而言,我們可以大致將這三類方法排序為:單目視覺>雙目視覺>RGBD。

單目相機SLAM簡稱MonoSLAM,即只用一支攝像頭就可以完成SLAM。這樣做的好處是傳感器特別的簡單、成本特別的低,所以單目SLAM非常受研究者關注。相比別的視覺傳感器,單目有個最大的問題,就是沒法確切地得到深度。這是一把雙刃劍。

一方面,由於絕對深度未知,單目SLAM沒法得到機器人運動軌跡以及地圖的真實大小。直觀地說,如果把軌跡和房間同時放大兩倍,單目看到的像是一樣的。因此,單目SLAM只能估計一個相對深度,在相似變換空間Sim(3)中求解,而非傳統的歐氏空間SE(3)。如果我們必須要在SE(3)中求解,則需要用一些外部的手段,例如GPS、IMU等傳感器,確定軌跡與地圖的尺度(Scale)。

另一方面,單目相機無法依靠一張圖像獲得圖像中物體離自己的相對距離。為了估計這個相對深度,單目SLAM要靠運動中的三角測量,來求解相機運動並估計像素的空間位置。即是說,它的軌跡和地圖,只有在相機運動之后才能收斂,如果相機不進行運動時,就無法得知像素的位置。同時,相機運動還不能是純粹的旋轉,這就給單目SLAM的應用帶來了一些麻煩,好在日常使用SLAM時,相機都會發生旋轉和平移。不過,無法確定深度同時也有一個好處:它使得單目SLAM不受環境大小的影響,因此既可以用於室內,又可以用於室外。

相比於單目,雙目相機通過多個相機之間的基線,估計空間點的位置。與單目不同的是,立體視覺既可以在運動時估計深度,亦可在靜止時估計,消除了單目視覺的許多麻煩。不過,雙目或多目相機配置與標定均較為復雜,其深度量程也隨雙目的基線與分辨率限制。通過雙目圖像計算像素距離,是一件非常消耗計算量的事情,現在多用FPGA來完成。

RGBD相機是2010年左右開始興起的一種相機,它最大的特點是可以通過紅外結構光或Time-of-Flight原理,直接測出圖像中各像素離相機的距離。因此,它比傳統相機能夠提供更豐富的信息,也不必像單目或雙目那樣費時費力地計算深度。目前常用的RGBD相機包括Kinect/Kinect V2、Xtion等。不過,現在多數RGBD相機還存在測量范圍窄、噪聲大、視野小等諸多問題。出於量程的限制,主要用於室內SLAM。

三、視覺SLAM框架

視覺SLAM幾乎都有一個基本的框架。一個SLAM系統分為四個模塊(除去傳感器數據讀取)VO、后端、建圖、回環檢測。本期我們簡要介紹各模塊的涵義,之后再詳細介紹其使用方法。

1、SLAM框架之視覺里程計

Visual Odometry,即視覺里程計。它估計兩個時刻機器人的相對運動(Ego-motion)。在激光SLAM中,我們可以將當前的觀測與全局地圖進行匹配,用ICP求解相對運動。而對於相機,它在歐氏空間里運動,我們經常需要估計一個三維空間的變換矩陣——SE3或Sim3(單目情形)。求解這個矩陣是VO的核心問題,而求解的思路,則分為基於特征的思路和不使用特征的直接方法。

基於特征的方法是目前VO的主流方式。對於兩幅圖像,首先提取圖像中的特征,然后根據兩幅圖的特征匹配,計算相機的變換矩陣。最常用的是點特征,例如Harris角點、SIFT、SURF、ORB。如果使用RGBD相機,利用已知深度的特征點,就可以直接估計相機的運動。給定一組特征點以及它們之間的配對關系,求解相機的姿態,該問題被稱為PnP問題(Perspective-N-Point)。PnP可以用非線性優化來求解,得到兩個幀之間的位置關系。

不使用特征進行VO的方法稱為直接法。它直接把圖像中所有像素寫進一個位姿估計方程,求出幀間相對運動。例如,在RGBD SLAM中,可以用ICP(Iterative Closest Point,迭代最近鄰)求解兩個點雲之間的變換矩陣。對於單目SLAM,我們可以匹配兩個圖像間的像素,或者像圖像與一個全局的模型相匹配。直接法的典型例子是SVO和LSD-SLAM。它們在單目SLAM中使用直接法,取得了較好的效果。目前看來,直接法比特征VO需要更多的計算量,而且對相機的圖像采集速率也有較高的要求。

2、SLAM框架之后端

在VO估計幀間運動之后,理論上就可以得到機器人的軌跡了。然而視覺里程計和普通的里程計一樣,存在累積誤差的問題(Drift)。直觀地說,在t1和t2時刻,估計的轉角比真實轉角少1度,那么之后的軌跡就全部少掉了這1度。時間一長,建出的房間可能由方形變成了多邊形,估計出的軌跡亦會有嚴重的漂移。所以在SLAM中,還會把幀間相對運動放到一個稱之為后端的程序中進行加工處理。

早期的SLAM后端使用濾波器方式。由於那時還未形成前后端的概念,有時人們也稱研究濾波器的工作為研究SLAM。SLAM最早的提出者R. Smith等人就把SLAM建構成了一個EKF(Extended Kalman Filter,擴展卡爾曼濾波)問題。他們按照EKF的形式,把SLAM寫成了一個運動方程和觀測方式,以最小化這兩個方程中的噪聲項為目的,使用典型的濾波器思路來解決SLAM問題。

當一個幀到達時,我們能(通過碼盤或IMU)測出該幀與上一幀的相對運動,但是存在噪聲,是為運動方程。同時,通過傳感器對路標的觀測,我們測出了機器人與路標間的位姿關系,同樣也帶有噪聲,是為觀測方程。通過這兩者信息,我們可以預測出機器人在當前時刻的位置。同樣,根據以往記錄的路標點,我們又能計算出一個卡爾曼增益,以補償噪聲的影響。於是,對當前幀和路標的估計,即是這個預測與更新的不斷迭代的過程。

21世紀之后,SLAM研究者開始借鑒SfM(Structure from Motion)問題中的方法,把捆集優化(Bundle Adjustment)引入到SLAM中來。優化方法和濾波器方法有根本上的不同。它並不是一個迭代的過程,而是考慮過去所有幀中的信息。通過優化,把誤差平均分到每一次觀測當中。在SLAM中的Bundle Adjustment常常以圖的形式給出,所以研究者亦稱之為圖優化方法(Graph Optimization)。圖優化可以直觀地表示優化問題,可利用稀疏代數進行快速的求解,表達回環也十分的方便,因而成為現今視覺SLAM中主流的優化方法。

3、SLAM框架之回環檢測

回環檢測,又稱閉環檢測(Loop closure detection),是指機器人識別曾到達場景的能力。如果檢測成功,可以顯著地減小累積誤差。回環檢測實質上是一種檢測觀測數據相似性的算法。對於視覺SLAM,多數系統采用目前較為成熟的詞袋模型(Bag-of-Words, BoW)。詞袋模型把圖像中的視覺特征(SIFT, SURF等)聚類,然后建立詞典,進而尋找每個圖中含有哪些“單詞”(word)。也有研究者使用傳統模式識別的方法,把回環檢測建構成一個分類問題,訓練分類器進行分類。

回環檢測的難點在於,錯誤的檢測結果可能使地圖變得很糟糕。這些錯誤分為兩類:1.假陽性(False Positive),又稱感知偏差(Perceptual Aliasing),指事實上不同的場景被當成了同一個;2.假陰性(False Negative),又稱感知變異(Perceptual Variability),指事實上同一個場景被當成了兩個。感知偏差會嚴重地影響地圖的結果,通常是希望避免的。一個好的回環檢測算法應該能檢測出盡量多的真實回環。研究者常常用准確率-召回率曲線來評價一個檢測算法的好壞。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM