OpenCV特征點檢測------ORB特征


OpenCV特征點檢測------ORB特征

orb-300x153

ORB是是ORiented Brief的簡稱。ORB的描述在下面文章中:

Ethan Rublee and Vincent Rabaud and Kurt Konolige and Gary Bradski, ORB: an efcient alternative to SIFT or SURF, ICCV 2011

沒有加上鏈接是因為作者確實還沒有放出論文,不過OpenCV2.3RC中已經有了實現,WillowGarage有一個talk也提到了這個算法,因此我不揣淺陋,在這里總結一下。

Brief是Binary Robust Independent Elementary Features的縮寫。這個特征描述子是由EPFL的Calonder在ECCV2010上提出的。主要思路就是在特征點附近隨機選取若干點對,將這些 點對的灰度值的大小,組合成一個二進制串,並將這個二進制串作為該特征點的特征描述子。詳細算法描述參考如下論文:

Calonder M., Lepetit V., Strecha C., Fua P.: BRIEF: Binary Robust Independent Elementary Features. ECCV 2010

注意在BRIEF eccv2010的文章中,BRIEF描述子中的每一位是由隨機選取的兩個像素點做二進制比較得來的。文章同樣提到,在此之前,需要選取合適的gaussian kernel對圖像做平滑處理。(為什么要強調這一點,因為下述的ORB對此作了改進。)

BRIEF的優點在於速度,缺點也相當明顯:

1:不具備旋轉不變性。

2:對噪聲敏感

3:不具備尺度不變性。

ORB就是試圖解決上述缺點中的1和2.

如何解決旋轉不變性:

在ORB的方案中,是采用了FAST作為特征點檢測算子。FAST應用的很多了,是出名的快,以防有人不知道,請看這里

corner

在Sift的方案中,特征點的主方向是由梯度直方圖的最大值和次大值所在的bin對應的方向決定的。略嫌耗時。

在ORB的方案中,特征點的主方向是通過矩(moment)計算而來,公式如下:

fast-288x300

有了主方向之后,就可以依據該主方向提取BRIEF描述子。但是由此帶來的問題是,由於主方向會發生變化,隨機點對的相關性會比較大,從而降低描述子的判別性。解決方案也很直接,采取貪婪的,窮舉的方法,暴力找到相關性較低的隨機點對。

rief-300x201

如何解決對噪聲敏感的問題:

在前面提到過,在最早的eccv2010的文章中,BRIEF使用的是pixel跟pixel的大小來構造描述子的每一個bit。這樣的后果就是對 噪聲敏感。因此,在ORB的方案中,做了這樣的改進,不再使用pixel-pair,而是使用9×9的patch-pair,也就是說,對比patch的 像素值之和。(可以通過積分圖快速計算)。

關於尺度不變性:

ORB沒有試圖解決尺度不變性,(因為FAST本身就不具有尺度不變性。)但是這樣只求速度的特征描述子,一般都是應用在實時的視頻處理中的,這樣的話就可以通過跟蹤還有一些啟發式的策略來解決尺度不變性的問題。

關於計算速度:

ORB是sift的100倍,是surf的10倍。

關於性能:

下面是一個性能對比,ORB還是很給力。點擊看大圖。

_orb-300x154

參考Slides

Related posts

 

最新版的OpenCV中新增加的ORB特征的使用

分類: Opencv學習C++2011-11-30 12:1511612人閱讀評論(16)收藏舉報

floatimagedistancevectorobjectless

看到OpenCV2.3.1里面ORB特征提取算法也在里面了,套用給的SURF特征例子程序改為ORB特征一直提示錯誤,類型不匹配神馬的,由於沒有找到示例程序,只能自己找答案。

(ORB特征論文:ORB: an efficient alternative to SIFT or SURF.點擊下載論文

經過查找發現:

描述符數據類型有是float的,比如說SIFT,SURF描述符,還有是uchar的,比如說有ORB,BRIEF

對於float 匹配方式有:

FlannBased

BruteForce<L2<float> >

BruteForce<SL2<float> >

BruteForce<L1<float> >

對於uchar有:

BruteForce<Hammin>

BruteForce<HammingLUT>

BruteForceMatcher< L2<float> > matcher;//改動的地方

完整代碼如下:

#include <iostream>
#include "opencv2/core/core.hpp"
#include "opencv2/features2d/features2d.hpp"
#include "opencv2/highgui/highgui.hpp"
#include <iostream>
#include <vector>
using namespace cv;
using namespace std;
int main()
{
	Mat img_1 = imread("D:\\image\\img1.jpg");
	Mat img_2 = imread("D:\\image\\img2.jpg");
	if (!img_1.data || !img_2.data)
	{
		cout << "error reading images " << endl;
		return -1;
	}

	ORB orb;
	vector<KeyPoint> keyPoints_1, keyPoints_2;
	Mat descriptors_1, descriptors_2;

	orb(img_1, Mat(), keyPoints_1, descriptors_1);
	orb(img_2, Mat(), keyPoints_2, descriptors_2);
	
	BruteForceMatcher<HammingLUT> matcher;
	vector<DMatch> matches;
	matcher.match(descriptors_1, descriptors_2, matches);

	double max_dist = 0; double min_dist = 100;
	//-- Quick calculation of max and min distances between keypoints
	for( int i = 0; i < descriptors_1.rows; i++ )
	{ 
		double dist = matches[i].distance;
		if( dist < min_dist ) min_dist = dist;
		if( dist > max_dist ) max_dist = dist;
	}
	printf("-- Max dist : %f \n", max_dist );
	printf("-- Min dist : %f \n", min_dist );
	//-- Draw only "good" matches (i.e. whose distance is less than 0.6*max_dist )
	//-- PS.- radiusMatch can also be used here.
	std::vector< DMatch > good_matches;
	for( int i = 0; i < descriptors_1.rows; i++ )
	{ 
		if( matches[i].distance < 0.6*max_dist )
		{ 
			good_matches.push_back( matches[i]); 
		}
	}

	Mat img_matches;
	drawMatches(img_1, keyPoints_1, img_2, keyPoints_2,
		good_matches, img_matches, Scalar::all(-1), Scalar::all(-1),
		vector<char>(), DrawMatchesFlags::NOT_DRAW_SINGLE_POINTS);
	imshow( "Match", img_matches);
	cvWaitKey();
	return 0;
}

另外: SURF SIFT

/*
SIFT sift;
sift(img_1, Mat(), keyPoints_1, descriptors_1);
sift(img_2, Mat(), keyPoints_2, descriptors_2);
BruteForceMatcher<L2<float> >  matcher;
*/
/*
SURF surf;
surf(img_1, Mat(), keyPoints_1);
surf(img_2, Mat(), keyPoints_2);
SurfDescriptorExtractor extrator;
extrator.compute(img_1, keyPoints_1, descriptors_1);
extrator.compute(img_2, keyPoints_2, descriptors_2);
BruteForceMatcher<L2<float> >  matcher;
*/

效果:

22626565td90

另外一個是尋找目標匹配

在右邊的場景圖里面尋找左邊那幅圖的starbucks標志

效果如下:

2263865406en

需要在之前的那個imshow之前加上如下代碼即可完成一個簡單的功能展示:

	// localize the object
	std::vector<Point2f> obj;
	std::vector<Point2f> scene;

	for (size_t i = 0; i < good_matches.size(); ++i)
	{
		// get the keypoints from the good matches
		obj.push_back(keyPoints_1[ good_matches[i].queryIdx ].pt);
		scene.push_back(keyPoints_2[ good_matches[i].trainIdx ].pt);
	}
	Mat H = findHomography( obj, scene, CV_RANSAC );

	// get the corners from the image_1
	std::vector<Point2f> obj_corners(4);
	obj_corners[0] = cvPoint(0,0);
	obj_corners[1] = cvPoint( img_1.cols, 0);
	obj_corners[2] = cvPoint( img_1.cols, img_1.rows);
	obj_corners[3] = cvPoint( 0, img_1.rows);
	std::vector<Point2f> scene_corners(4);

	perspectiveTransform( obj_corners, scene_corners, H);

	// draw lines between the corners (the mapped object in the scene - image_2)
	line( img_matches, scene_corners[0] + Point2f( img_1.cols, 0), scene_corners[1] + Point2f( img_1.cols, 0),Scalar(0,255,0));
	line( img_matches, scene_corners[1] + Point2f( img_1.cols, 0), scene_corners[2] + Point2f( img_1.cols, 0),Scalar(0,255,0));
	line( img_matches, scene_corners[2] + Point2f( img_1.cols, 0), scene_corners[3] + Point2f( img_1.cols, 0),Scalar(0,255,0));
	line( img_matches, scene_corners[3] + Point2f( img_1.cols, 0), scene_corners[0] + Point2f( img_1.cols, 0),Scalar(0,255,0));

 

 

 

代碼片:

 

 

  1. #include "opencv2/highgui/highgui.hpp"   
  2. #include "opencv2/features2d/features2d.hpp"   
  3. #include <iostream>   
  4.   
  5. int main( )    
  6. {    
  7.    cv::Ptr<cv::FeatureDetector> detector = cv::FeatureDetector::create( "SIFT" );    
  8.    cv::Ptr<cv::DescriptorExtractor> extractor = cv::DescriptorExtractor::create("SIFT" );    
  9.    cv::Mat im = cv::imread("box.png", CV_LOAD_IMAGE_COLOR );    
  10.    std::vector<cv::KeyPoint> keypoints;    
  11.    cv::Mat descriptors;    
  12.    detector->detect( im, keypoints);    
  13.    extractor->compute( im,keypoints,descriptors);    
  14.   
  15. int duplicateNum = 0;    
  16. for (int i=0;i<keypoints.size();i++)    
  17.    {    
  18. for (int j=i+1;j<keypoints.size();j++)    
  19.       {    
  20. float dist = abs((keypoints[i].pt.x-keypoints[j].pt.x))+abs((keypoints[i].pt.y-keypoints[j].pt.y));    
  21. if (dist == 0)    
  22.          {    
  23.             cv::Mat descriptorDiff = descriptors.row(i)-descriptors.row(j);    
  24. double diffNorm = cv::norm(descriptorDiff);    
  25.             std::cout<<"keypoint "<<i<<" equal to keypoint "<<j<<" descriptor distance "<<diffNorm<<std::endl;    
  26.             duplicateNum++;    
  27.          }    
  28.       }    
  29.    }    
  30.    std::cout<<"Total keypoint: "<<keypoints.size()<<", duplicateNum: "<<duplicateNum<<std::endl;    
  31.   
  32. return 1;    
  33. }   


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM