SLAM算法中提取特征總結


我們要知道三維空間中的點在圖像中的位置,就需要提取特征與特征匹配了。

1.檢測特征點

2.計算描述子

3.特征匹配

 

1.檢測特征點

  我們用到的檢測特征點的方法是FAST算法,最大的特點就是快!

  算法原理:遍歷圖像,找到所有的角點。我們就拿一個角點舉例,例如只拿到一個角點p,設其像素灰度值為I,取這個角點以三為半徑的圓上的所有像素點,能取到16個,然后設定一個閾值t,如果連續n個像素點的灰度值都大於I+t或者都小於I-t。我們則認為其為特征點。接着計算方向:特征點與重心的角度。

 

2.計算描述子

  描述子我們可以理解為在每一個特征點旁邊有一個向量,或者說也可以理解為數組,記錄着特征點周圍的信息。這里用的事BRIEF描述子。BRIEF描述子是一個二進制描述子,就是在特征點周圍隨機取128對點對或者是256對點對p和q,若p大於q,則記為1,否則記為0。這就組成了一個128個數的[0,1,1,0.....]序列。

 

3.特征匹配

  此時我們得到了所有的特征點和描述子。此時進行暴力匹配,對圖1中的每一個特征點分別和圖像2中的特征點的描述子比較,我們用Hamming距離來度量兩個描述子的相似程度,如果Hamming距離小於兩倍的最小距離則認為匹配正確,否則認為匹配錯誤。

 

代碼如下:

#include <iostream>
#include <opencv2/core/core.hpp>
#include <opencv2/features2d/features2d.hpp>
#include <opencv2/highgui/highgui.hpp>

using namespace std;
using namespace cv;

int main ( int argc, char** argv )
{
    if ( argc != 3 )
    {
        cout<<"usage: feature_extraction img1 img2"<<endl;
        return 1;
    }
    //-- 讀取圖像
    Mat img_1 = imread ( argv[1], CV_LOAD_IMAGE_COLOR );
    Mat img_2 = imread ( argv[2], CV_LOAD_IMAGE_COLOR );

    //-- 初始化
    std::vector<KeyPoint> keypoints_1, keypoints_2;
    Mat descriptors_1, descriptors_2;
    Ptr<FeatureDetector> detector = ORB::create();
    Ptr<DescriptorExtractor> descriptor = ORB::create();
    Ptr<DescriptorMatcher> matcher  = DescriptorMatcher::create ( "BruteForce-Hamming" );

    //-- 第一步:檢測 Oriented FAST 角點位置
    detector->detect ( img_1,keypoints_1 );
    detector->detect ( img_2,keypoints_2 );

    //-- 第二步:根據角點位置計算 BRIEF 描述子
    descriptor->compute ( img_1, keypoints_1, descriptors_1 );
    descriptor->compute ( img_2, keypoints_2, descriptors_2 );

    Mat outimg1;
    drawKeypoints( img_1, keypoints_1, outimg1, Scalar::all(-1), DrawMatchesFlags::DEFAULT );
    imshow("ORB特征點",outimg1);

    //-- 第三步:對兩幅圖像中的BRIEF描述子進行匹配,使用 Hamming 距離
    vector<DMatch> matches;//matches存儲特征點信息
    matcher->match ( descriptors_1, descriptors_2, matches );

    //-- 第四步:匹配點對篩選
    double min_dist=10000, max_dist=0;

    //找出所有匹配之間的最小距離和最大距離, 即是最相似的和最不相似的兩組點之間的距離
    for ( int i = 0; i < descriptors_1.rows; i++ )
    {
        double dist = matches[i].distance;
        if ( dist < min_dist ) min_dist = dist;
        if ( dist > max_dist ) max_dist = dist;
    }

    printf ( "-- Max dist : %f \n", max_dist );
    printf ( "-- Min dist : %f \n", min_dist );

    //當描述子之間的距離大於兩倍的最小距離時,即認為匹配有誤.但有時候最小距離會非常小,設置一個經驗值30作為下限.
    std::vector< DMatch > good_matches;
    for ( int i = 0; i < descriptors_1.rows; i++ )
    {
        if ( matches[i].distance <= max ( 2*min_dist, 30.0 ) )
        {
            good_matches.push_back ( matches[i] );
        }
    }

    //-- 第五步:繪制匹配結果
    Mat img_match;
    Mat img_goodmatch;
    drawMatches ( img_1, keypoints_1, img_2, keypoints_2, matches, img_match );
    drawMatches ( img_1, keypoints_1, img_2, keypoints_2, good_matches, img_goodmatch );
    imshow ( "所有匹配點對", img_match );
    imshow ( "優化后匹配點對", img_goodmatch );
    waitKey(0);

    return 0;
}

若有錯誤,歡迎指正!謝謝!


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM