關鍵詞:OpenCV::solvePnP
文章類型:方法封裝、測試
@Author:VShawn(singlex@foxmail.com)
@Date:2016-11-27
@Lab: CvLab202@CSU
前言
今天給大家帶來的是一篇關於程序功能、性能測試的文章,讀過《相機位姿估計1:根據四個特征點估計相機姿態》一文的同學應該會發現,直接使用OpenCV的solvePnP來估計相機位姿,在程序調用上相當麻煩,從一開始的參數設定到最后將計算出的矩陣轉化為相機的位姿參數,需要花費近兩百行代碼。因此為了更方便地調用程序,今天我就給大家帶來一個我自己對solvePnP的封裝類PNPSolver,順便將OpenCV自帶的三種求解方法測試一遍。
類的封裝
封裝的思路我就不寫了,由於博客更新速度趕不上我寫程序的速度,現在發上來的類已經修改過好幾次了,思路也換了幾次。不過大的方向沒變,目的就是只需要輸入參數,輸入坐標點后直接可以得到相機在世界坐標系的坐標。
類的調用順序:
1.初始化PNPSolver類;
2.調用SetCameraMatrix(),SetDistortionCoefficients()設置好相機內參數與鏡頭畸變參數;
3.向Points3D,Points2D中添加一一對應的特征點對;
4.調用Solve()方法運行計算;
5.從屬性Theta_C2W中提取旋轉角,從Position_OcInW中提取出相機在世界坐標系下的坐標。
以下是類體:
PNPSolver.h
#pragma once #include <opencv2\opencv.hpp> #include <math.h> #include <iostream> #include <fstream> using namespace std; // 本類用於快速解決PNP問題,順帶解決空間繞軸旋轉以及圖像系、相機系、世界系三系坐標投影問題 // 默認使用Gao的P3P+重投影法,要求輸入4個特征點 // 調用順序: // 1.初始化本類 // 2.調用SetCameraMatrix(),SetDistortionCoefficients()設置好相機內參數與鏡頭畸變參數 // 3.向Points3D,Points2D中添加一一對應的特征點對 // 4.調用Solve()方法運行計算 // 5.從RoteM, TransM, W2CTheta等屬性中提出結果 // // 原理參見:http://www.cnblogs.com/singlex/category/911880.html // Author:VShawn // Ver:2016.11.25.0 class PNPSolver { public: PNPSolver(); //帶參數初始化 PNPSolver(double fx, double fy, double u0, double v0, double k_1, double k_2, double p_1, double p_2, double k_3); ~PNPSolver(); enum METHOD { CV_ITERATIVE = CV_ITERATIVE, CV_P3P = CV_P3P, CV_EPNP = CV_EPNP }; /***********************位姿估計所用特征點**************************/ vector<cv::Point3f> Points3D;//存儲四個點的世界坐標 vector<cv::Point2f> Points2D;//存儲四個點的圖像坐標 /***********************位姿估計結果**************************/ //最后求出的旋轉矩陣與平移矩陣 cv::Mat RoteM, TransM; //世界系到相機系的三軸旋轉歐拉角,世界系照此旋轉后可以與相機坐標系完全平行。 //旋轉順序為x、y、z cv::Point3f Theta_W2C; //相機系到世界系的三軸旋轉歐拉角,相機坐標系照此旋轉后可以與世界坐標系完全平行。 //旋轉順序為z、y、x cv::Point3f Theta_C2W; //相機坐標系中,世界坐標系原點Ow的坐標 cv::Point3f Position_OwInC; //世界坐標系中,相機坐標系原點Oc的坐標 cv::Point3f Position_OcInW; /*********************公有方法*****************************/ //解PNP問題,獲得位姿信息 //調用后在RoteM, TransM, W2CTheta等屬性中提取計算結果,屬性說明參見注釋 //輸出參數:CV_ITERATIVE,CV_P3P(默認),CV_EPNP,具體參見Opencv documentation. //實測 //CV_ITERATIVE迭代法似乎只能用4個共面特征點求解,5個點或非共面4點解不出正確的解 //CV_P3P的Gao的方法可以使用任意四個特征點,特征點數量不能少於4也不能多於4 //CV_EPNP方法可以實現特征點數>=4的問題求解,不需要4點共面 //返回值: //0正確 //-1相機內參數或畸變參數未設置 //-2未提供足夠的特征點,或特征點數目不匹配 //-3輸入的點數據有誤,詳見printf信息 int Solve(METHOD method = METHOD::CV_P3P); //根據計算出的結果將世界坐標重投影到圖像,返回像素坐標點集 //使用前需要先用Solve()解出相機位姿 //輸入為世界坐標系的點坐標集合 //輸出為點投影到圖像上的圖像坐標集合 vector<cv::Point2f> WordFrame2ImageFrame(vector<cv::Point3f> WorldPoints); //根據輸入的參數將圖像坐標轉換到相機坐標中 //使用前需要先用Solve()解出相機位姿 //輸入為圖像上的點坐標 //double F為鏡頭焦距 //輸出為點在焦距=F時的相機坐標系坐標 cv::Point3f ImageFrame2CameraFrame(cv::Point2f p, double F); //設置相機內參數矩陣 void SetCameraMatrix(double fx, double fy, double u0, double v0) { camera_matrix = cv::Mat(3, 3, CV_64FC1, cv::Scalar::all(0)); camera_matrix.ptr<double>(0)[0] = fx; camera_matrix.ptr<double>(0)[2] = u0; camera_matrix.ptr<double>(1)[1] = fy; camera_matrix.ptr<double>(1)[2] = v0; camera_matrix.ptr<double>(2)[2] = 1.0f; } //設置畸變系數矩陣 void SetDistortionCoefficients(double k_1, double k_2, double p_1, double p_2, double k_3) { distortion_coefficients = cv::Mat(5, 1, CV_64FC1, cv::Scalar::all(0)); distortion_coefficients.ptr<double>(0)[0] = k_1; distortion_coefficients.ptr<double>(1)[0] = k_2; distortion_coefficients.ptr<double>(2)[0] = p_1; distortion_coefficients.ptr<double>(3)[0] = p_2; distortion_coefficients.ptr<double>(4)[0] = k_3; } /********************公有靜態方法*********************/ //點繞任意向量旋轉,右手系 static cv::Point3f RotateByVector(double old_x, double old_y, double old_z, double vx, double vy, double vz, double theta) { double r = theta * CV_PI / 180; double c = cos(r); double s = sin(r); double new_x = (vx*vx*(1 - c) + c) * old_x + (vx*vy*(1 - c) - vz*s) * old_y + (vx*vz*(1 - c) + vy*s) * old_z; double new_y = (vy*vx*(1 - c) + vz*s) * old_x + (vy*vy*(1 - c) + c) * old_y + (vy*vz*(1 - c) - vx*s) * old_z; double new_z = (vx*vz*(1 - c) - vy*s) * old_x + (vy*vz*(1 - c) + vx*s) * old_y + (vz*vz*(1 - c) + c) * old_z; return cv::Point3f(new_x, new_y, new_z); } //將空間點繞Z軸旋轉 //輸入參數 x y為空間點原始x y坐標 //thetaz為空間點繞Z軸旋轉多少度,角度制范圍在-180到180 //outx outy為旋轉后的結果坐標 static void CodeRotateByZ(double x, double y, double thetaz, double& outx, double& outy) { double x1 = x;//將變量拷貝一次,保證&x == &outx這種情況下也能計算正確 double y1 = y; double rz = thetaz * CV_PI / 180; outx = cos(rz) * x1 - sin(rz) * y1; outy = sin(rz) * x1 + cos(rz) * y1; } //將空間點繞Y軸旋轉 //輸入參數 x z為空間點原始x z坐標 //thetay為空間點繞Y軸旋轉多少度,角度制范圍在-180到180 //outx outz為旋轉后的結果坐標 static void CodeRotateByY(double x, double z, double thetay, double& outx, double& outz) { double x1 = x; double z1 = z; double ry = thetay * CV_PI / 180; outx = cos(ry) * x1 + sin(ry) * z1; outz = cos(ry) * z1 - sin(ry) * x1; } //將空間點繞X軸旋轉 //輸入參數 y z為空間點原始y z坐標 //thetax為空間點繞X軸旋轉多少度,角度制,范圍在-180到180 //outy outz為旋轉后的結果坐標 static void CodeRotateByX(double y, double z, double thetax, double& outy, double& outz) { double y1 = y;//將變量拷貝一次,保證&y == &y這種情況下也能計算正確 double z1 = z; double rx = thetax * CV_PI / 180; outy = cos(rx) * y1 - sin(rx) * z1; outz = cos(rx) * z1 + sin(rx) * y1; } private: cv::Mat camera_matrix;//內參數矩陣 cv::Mat distortion_coefficients;//畸變系數 cv::Mat rvec;//解出來的旋轉向量 cv::Mat tvec;//解出來的平移向量 };
PNPSolver.cpp
#include "PNPSolver.h" // 本類用於快速解決PNP問題,順帶解決空間繞軸旋轉以及圖像系、相機系、世界系三系坐標投影問題 // 調用順序: // 1.初始化本類 // 2.調用SetCameraMatrix(),SetDistortionCoefficients()設置好相機內參數與鏡頭畸變參數 // 3.向Points3D,Points2D中添加一一對應的特征點對 // 4.調用Solve()方法運行計算 // 5.從RoteM, TransM, W2CTheta等屬性中提出結果 // // 原理參見:http://www.cnblogs.com/singlex/category/911880.html // Author:VShawn // Ver:2016.11.26.0 PNPSolver::PNPSolver() { //初始化輸出矩陣 vector<double> rv(3), tv(3); cv::Mat rvec(rv), tvec(tv); } PNPSolver::PNPSolver(double fx, double fy, double u0, double v0, double k_1, double k_2, double p_1, double p_2, double k_3) { //初始化輸出矩陣 vector<double> rv(3), tv(3); cv::Mat rvec(rv), tvec(tv); SetCameraMatrix(fx, fy, u0, v0); SetDistortionCoefficients(k_1, k_2, p_1, p_2, k_3); } PNPSolver::~PNPSolver() { } int PNPSolver::Solve(METHOD method) { //數據校驗 if (camera_matrix.cols == 0 || distortion_coefficients.cols == 0) { printf("ErrCode:-1,相機內參數或畸變參數未設置!\r\n"); return -1; } if (Points3D.size() != Points2D.size()) { printf("ErrCode:-2,3D點數量與2D點數量不一致!\r\n"); return -2; } if (method == METHOD::CV_P3P || method == METHOD::CV_ITERATIVE) { if (Points3D.size() != 4) { printf("ErrCode:-2,使用CV_ITERATIVE或CV_P3P方法時輸入的特征點數量應為4!\r\n"); return -2; } } else { if (Points3D.size() < 4) { printf("ErrCode:-2,輸入的特征點數量應大於4!\r\n"); return -2; } } ////TODO::檢驗是否是共面的四點 //if ((method == METHOD::CV_ITERATIVE || method == METHOD::CV_EPNP) && Points2D.size() == 4) //{ // //通過向量兩兩叉乘獲得法向量,看法向量是否平行 //} /*******************解決PNP問題*********************/ //有三種方法求解 solvePnP(Points3D, Points2D, camera_matrix, distortion_coefficients, rvec, tvec, false, method); //實測迭代法似乎只能用共面特征點求位置 //solvePnP(Points3D, Points2D, camera_matrix, distortion_coefficients, rvec, tvec, false, CV_ITERATIVE); //實測迭代法似乎只能用共面特征點求位置 //solvePnP(Points3D, Points2D, camera_matrix, distortion_coefficients, rvec, tvec, false, CV_P3P); //Gao的方法可以使用任意四個特征點 //solvePnP(Points3D, Points2D, camera_matrix, distortion_coefficients, rvec, tvec, false, CV_EPNP); /*******************提取旋轉矩陣*********************/ double rm[9]; RoteM = cv::Mat(3, 3, CV_64FC1, rm); Rodrigues(rvec, RoteM); double r11 = RoteM.ptr<double>(0)[0]; double r12 = RoteM.ptr<double>(0)[1]; double r13 = RoteM.ptr<double>(0)[2]; double r21 = RoteM.ptr<double>(1)[0]; double r22 = RoteM.ptr<double>(1)[1]; double r23 = RoteM.ptr<double>(1)[2]; double r31 = RoteM.ptr<double>(2)[0]; double r32 = RoteM.ptr<double>(2)[1]; double r33 = RoteM.ptr<double>(2)[2]; TransM = tvec; //計算出相機坐標系的三軸旋轉歐拉角,旋轉后可以轉出世界坐標系。 //旋轉順序為z、y、x double thetaz = atan2(r21, r11) / CV_PI * 180; double thetay = atan2(-1 * r31, sqrt(r32*r32 + r33*r33)) / CV_PI * 180; double thetax = atan2(r32, r33) / CV_PI * 180; //相機系到世界系的三軸旋轉歐拉角,相機坐標系照此旋轉后可以與世界坐標系完全平行。 //旋轉順序為z、y、x Theta_C2W.z = thetaz; Theta_C2W.y = thetay; Theta_C2W.x = thetax; //計算出世界系到相機系的三軸旋轉歐拉角,世界系照此旋轉后可以轉出相機坐標系。 //旋轉順序為x、y、z Theta_W2C.x = -1 * thetax; Theta_W2C.y = -1 * thetay; Theta_W2C.z = -1 * thetaz; /*************************************此處計算出相機坐標系原點Oc在世界坐標系中的位置**********************************************/ /***********************************************************************************/ /* 當原始坐標系經過旋轉z、y、x三次旋轉后,與世界坐標系平行,向量OcOw會跟着旋轉 */ /* 而我們想知道的是兩個坐標系完全平行時,OcOw的值 */ /* 因此,原始坐標系每次旋轉完成后,對向量OcOw進行一次反相旋轉,最終可以得到兩個坐標系完全平行時的OcOw */ /* 該向量乘以-1就是世界坐標系下相機的坐標 */ /***********************************************************************************/ //提出平移矩陣,表示從相機坐標系原點,跟着向量(x,y,z)走,就到了世界坐標系原點 double tx = tvec.ptr<double>(0)[0]; double ty = tvec.ptr<double>(0)[1]; double tz = tvec.ptr<double>(0)[2]; //x y z 為唯一向量在相機原始坐標系下的向量值 //也就是向量OcOw在相機坐標系下的值 double x = tx, y = ty, z = tz; Position_OwInC.x = x; Position_OwInC.y = y; Position_OwInC.z = z; //進行三次反向旋轉 CodeRotateByZ(x, y, -1 * thetaz, x, y); CodeRotateByY(x, z, -1 * thetay, x, z); CodeRotateByX(y, z, -1 * thetax, y, z); //獲得相機在世界坐標系下的位置坐標 //即向量OcOw在世界坐標系下的值 Position_OcInW.x = x*-1; Position_OcInW.y = y*-1; Position_OcInW.z = z*-1; return 0; } //根據計算出的結果將世界坐標重投影到圖像,返回像素坐標點集 //輸入為世界坐標系的點坐標集合 //輸出為點投影到圖像上的圖像坐標集合 vector<cv::Point2f> PNPSolver::WordFrame2ImageFrame(vector<cv::Point3f> WorldPoints) { vector<cv::Point2f> projectedPoints; cv::projectPoints(WorldPoints, rvec, tvec, camera_matrix, distortion_coefficients, projectedPoints); return projectedPoints; } //根據輸入的參數將圖像坐標轉換到相機坐標中 //使用前需要先用Solve()解出相機位姿 //輸入為圖像上的點坐標 //double F為鏡頭焦距 //輸出為點在焦距=F時的相機坐標系坐標 cv::Point3f PNPSolver::ImageFrame2CameraFrame(cv::Point2f p, double F) { double fx; double fy; double u0; double v0; fx = camera_matrix.ptr<double>(0)[0]; u0 = camera_matrix.ptr<double>(0)[2]; fy = camera_matrix.ptr<double>(1)[1]; v0 = camera_matrix.ptr<double>(1)[2]; double zc = F; double xc = (p.x - u0)*F / fx; double yc = (p.y - v0)*F / fy; return cv::Point3f(xc, yc, zc); }
一個典型的調用示例
//初始化PNPSolver類 PNPSolver p4psolver; //初始化相機參數 p4psolver.SetCameraMatrix(fx, fy, u0, v0); //設置畸變參數 p4psolver.SetDistortionCoefficients(k1, k2, p1, p2, k3); //設置特征點的世界坐標 p4psolver.Points3D.push_back(cv::Point3f(0, 0, 0)); //P1三維坐標的單位是毫米 p4psolver.Points3D.push_back(cv::Point3f(0, 200, 0)); //P2 p4psolver.Points3D.push_back(cv::Point3f(150, 0, 0)); //P3 //p4psolver.Points3D.push_back(cv::Point3f(150, 200, 0)); //P4 p4psolver.Points3D.push_back(cv::Point3f(0, 100, 105)); //P5 cout << "test2:特征點世界坐標 = " << endl << p4psolver.Points3D << endl; //設置特征點的圖像坐標 p4psolver.Points2D.push_back(cv::Point2f(2985, 1688)); //P1 p4psolver.Points2D.push_back(cv::Point2f(5081, 1690)); //P2 p4psolver.Points2D.push_back(cv::Point2f(2997, 2797)); //P3 //p4psolver.Points2D.push_back(cv::Point2f(5544, 2757)); //P4 p4psolver.Points2D.push_back(cv::Point2f(4148, 673)); //P5 cout << "test2:圖中特征點坐標 = " << endl << p4psolver.Points2D << endl; if (p4psolver.Solve(PNPSolver::METHOD::CV_P3P) == 0) cout << "test2:CV_P3P方法: 相機位姿→" << "Oc坐標=" << p4psolver.Position_OcInW << " 相機旋轉=" << p4psolver.Theta_W2C << endl; if (p4psolver.Solve(PNPSolver::METHOD::CV_ITERATIVE) == 0) cout << "test2:CV_ITERATIVE方法: 相機位姿→" << "Oc坐標=" << p4psolver.Position_OcInW << " 相機旋轉=" << p4psolver.Theta_W2C << endl; if (p4psolver.Solve(PNPSolver::METHOD::CV_EPNP) == 0) cout << "test2:CV_EPNP方法: 相機位姿→" << "Oc坐標=" << p4psolver.Position_OcInW << " 相機旋轉=" << p4psolver.Theta_W2C << endl;
方法測試
OpenCV提供了三種方法進行PNP計算,三種方法具體怎么計算的就請各位自己查詢opencv documentation以及相關的論文了,我看了個大概然后結合自己實際的測試情況給出一個結論,不一定正確,僅供參考:
方法名 |
說明 |
測試結論 |
CV_P3P |
這個方法使用非常經典的Gao方法解P3P問題,求出4組可能的解,再通過對第四個點的重投影,返回重投影誤差最小的點。 論文《Complete Solution Classification for the Perspective-Three-Point Problem》 |
可以使用任意4個特征點求解,不要共面,特征點數量不為4時報錯 |
CV_ITERATIVE |
該方法基於Levenberg-Marquardt optimization迭代求解PNP問題,實質是迭代求出重投影誤差最小的解,這個解顯然不一定是正解。 實測該方法只有用4個共面的特征點時才能求出正確的解,使用5個特征點或4點非共面的特征點都得不到正確的位姿。
|
只能用4個共面的特征點來解位姿 |
CV_EPNP |
該方法使用EfficientPNP方法求解問題,具體怎么做的當時網速不好我沒下載到論文,后面又懶得去看了。 論文《EPnP: Efficient Perspective-n-Point Camera Pose Estimation》 |
對於N個特征點,只要N>3就能夠求出正解。 |
測試截圖:
1.使用四個共面的特征點,顯然三種方法都能得到正解,但相互之間略有誤差。
2使用四個非共面的特征點,CV_ITERATIVE方法解錯了。
3.使用5個特征點求解,只有CV_EPNP能夠用
性能測試
最后對三種方法的性能進行測試,通過對test1重復執行1000次獲得算法的運行時間,從結果可以看出迭代法顯然是最慢的,Gao的P3P+重投影法用時最少,EPNP法其次。
總結
綜合以上的測試,推薦使用CV_P3P來解決實際問題,該方法對於有四個特征點的情況限制少、運算速度快。當特征點數大於4時,可以取多組4特征點計算出結果再求平均值,或者為了簡單點就直接使用CV_EPNP法。
不推薦使用CV_ITERATIVE方法。
程序下載地址:Github