我們要知道三維空間中的點在圖像中的位置,就需要提取特征與特征匹配了。
1.檢測特征點
2.計算描述子
3.特征匹配
1.檢測特征點
我們用到的檢測特征點的方法是FAST算法,最大的特點就是快!
算法原理:遍歷圖像,找到所有的角點。我們就拿一個角點舉例,例如只拿到一個角點p,設其像素灰度值為I,取這個角點以三為半徑的圓上的所有像素點,能取到16個,然后設定一個閾值t,如果連續n個像素點的灰度值都大於I+t或者都小於I-t。我們則認為其為特征點。接着計算方向:特征點與重心的角度。
2.計算描述子
描述子我們可以理解為在每一個特征點旁邊有一個向量,或者說也可以理解為數組,記錄着特征點周圍的信息。這里用的事BRIEF描述子。BRIEF描述子是一個二進制描述子,就是在特征點周圍隨機取128對點對或者是256對點對p和q,若p大於q,則記為1,否則記為0。這就組成了一個128個數的[0,1,1,0.....]序列。
3.特征匹配
此時我們得到了所有的特征點和描述子。此時進行暴力匹配,對圖1中的每一個特征點分別和圖像2中的特征點的描述子比較,我們用Hamming距離來度量兩個描述子的相似程度,如果Hamming距離小於兩倍的最小距離則認為匹配正確,否則認為匹配錯誤。
代碼如下:
#include <iostream> #include <opencv2/core/core.hpp> #include <opencv2/features2d/features2d.hpp> #include <opencv2/highgui/highgui.hpp> using namespace std; using namespace cv; int main ( int argc, char** argv ) { if ( argc != 3 ) { cout<<"usage: feature_extraction img1 img2"<<endl; return 1; } //-- 讀取圖像 Mat img_1 = imread ( argv[1], CV_LOAD_IMAGE_COLOR ); Mat img_2 = imread ( argv[2], CV_LOAD_IMAGE_COLOR ); //-- 初始化 std::vector<KeyPoint> keypoints_1, keypoints_2; Mat descriptors_1, descriptors_2; Ptr<FeatureDetector> detector = ORB::create(); Ptr<DescriptorExtractor> descriptor = ORB::create(); Ptr<DescriptorMatcher> matcher = DescriptorMatcher::create ( "BruteForce-Hamming" ); //-- 第一步:檢測 Oriented FAST 角點位置 detector->detect ( img_1,keypoints_1 ); detector->detect ( img_2,keypoints_2 ); //-- 第二步:根據角點位置計算 BRIEF 描述子 descriptor->compute ( img_1, keypoints_1, descriptors_1 ); descriptor->compute ( img_2, keypoints_2, descriptors_2 ); Mat outimg1; drawKeypoints( img_1, keypoints_1, outimg1, Scalar::all(-1), DrawMatchesFlags::DEFAULT ); imshow("ORB特征點",outimg1); //-- 第三步:對兩幅圖像中的BRIEF描述子進行匹配,使用 Hamming 距離 vector<DMatch> matches;//matches存儲特征點信息 matcher->match ( descriptors_1, descriptors_2, matches ); //-- 第四步:匹配點對篩選 double min_dist=10000, max_dist=0; //找出所有匹配之間的最小距離和最大距離, 即是最相似的和最不相似的兩組點之間的距離 for ( int i = 0; i < descriptors_1.rows; i++ ) { double dist = matches[i].distance; if ( dist < min_dist ) min_dist = dist; if ( dist > max_dist ) max_dist = dist; } printf ( "-- Max dist : %f \n", max_dist ); printf ( "-- Min dist : %f \n", min_dist ); //當描述子之間的距離大於兩倍的最小距離時,即認為匹配有誤.但有時候最小距離會非常小,設置一個經驗值30作為下限. std::vector< DMatch > good_matches; for ( int i = 0; i < descriptors_1.rows; i++ ) { if ( matches[i].distance <= max ( 2*min_dist, 30.0 ) ) { good_matches.push_back ( matches[i] ); } } //-- 第五步:繪制匹配結果 Mat img_match; Mat img_goodmatch; drawMatches ( img_1, keypoints_1, img_2, keypoints_2, matches, img_match ); drawMatches ( img_1, keypoints_1, img_2, keypoints_2, good_matches, img_goodmatch ); imshow ( "所有匹配點對", img_match ); imshow ( "優化后匹配點對", img_goodmatch ); waitKey(0); return 0; }
若有錯誤,歡迎指正!謝謝!