#include "opencv2/calib3d/calib3d.hpp" #include "opencv2/highgui/highgui.hpp" #include "opencv2/imgproc/imgproc.hpp" #include <vector> #include <string> #include <algorithm> #include <iostream> #include <iterator> #include <stdio.h> #include <stdlib.h> #include <ctype.h> using namespace cv; using namespace std; static void StereoCalib(const vector<string>& imagelist, Size boardSize, bool useCalibrated=true, bool showRectified=true) { if( imagelist.size() % 2 != 0 ) { cout << "Error: the image list contains odd (non-even) number of elements\n"; return; } bool displayCorners = false;//true; const int maxScale = 2; const float squareSize = 1.f; // Set this to your actual square size // ARRAY AND VECTOR STORAGE: //創建圖像坐標和世界坐標系坐標矩陣 vector<vector<Point2f> > imagePoints[2]; vector<vector<Point3f> > objectPoints; Size imageSize; int i, j, k, nimages = (int)imagelist.size()/2; //確定左右視圖矩陣的數量,比如10副圖,左右矩陣分別為5個 imagePoints[0].resize(nimages); imagePoints[1].resize(nimages); vector<string> goodImageList; for( i = j = 0; i < nimages; i++ ) { for( k = 0; k < 2; k++ ) { //逐個讀取圖片 const string& filename = imagelist[i*2+k]; Mat img = imread(filename, 0); if(img.empty()) break; if( imageSize == Size() ) imageSize = img.size(); else if( img.size() != imageSize ) { cout << "The image " << filename << " has the size different from the first image size. Skipping the pair\n"; break; } bool found = false; //設置圖像矩陣的引用,此時指向左右視圖的矩陣首地址 vector<Point2f>& corners = imagePoints[k][j]; for( int scale = 1; scale <= maxScale; scale++ ) { Mat timg; //圖像是8bit的灰度或彩色圖像 if( scale == 1 ) timg = img; else resize(img, timg, Size(), scale, scale); //boardSize為棋盤圖的行、列數 found = findChessboardCorners(timg, boardSize, corners, CV_CALIB_CB_ADAPTIVE_THRESH | CV_CALIB_CB_NORMALIZE_IMAGE); if( found ) { //如果為多通道圖像 if( scale > 1 ) { Mat cornersMat(corners); cornersMat *= 1./scale; } break; } } if( displayCorners ) { cout << filename << endl; Mat cimg, cimg1; cvtColor(img, cimg, COLOR_GRAY2BGR); drawChessboardCorners(cimg, boardSize, corners, found); double sf = 640./MAX(img.rows, img.cols); resize(cimg, cimg1, Size(), sf, sf); imshow("corners", cimg1); char c = (char)waitKey(500); if( c == 27 || c == 'q' || c == 'Q' ) //Allow ESC to quit exit(-1); } else putchar('.'); if( !found ) break; cornerSubPix(img, corners, Size(11,11), Size(-1,-1), TermCriteria(CV_TERMCRIT_ITER+CV_TERMCRIT_EPS, 30, 0.01)); } if( k == 2 ) { goodImageList.push_back(imagelist[i*2]); goodImageList.push_back(imagelist[i*2+1]); j++; } } cout << j << " pairs have been successfully detected.\n"; nimages = j; if( nimages < 2 ) { cout << "Error: too little pairs to run the calibration\n"; return; } imagePoints[0].resize(nimages); imagePoints[1].resize(nimages); // 圖像點的世界坐標系 objectPoints.resize(nimages); for( i = 0; i < nimages; i++ ) { for( j = 0; j < boardSize.height; j++ ) for( k = 0; k < boardSize.width; k++ ) //直接轉為float類型,坐標為行、列 objectPoints[i].push_back(Point3f(j*squareSize, k*squareSize, 0)); } cout << "Running stereo calibration ...\n"; //創建內參矩陣 Mat cameraMatrix[2], distCoeffs[2]; cameraMatrix[0] = Mat::eye(3, 3, CV_64F); cameraMatrix[1] = Mat::eye(3, 3, CV_64F); Mat R, T, E, F; //求解雙目標定的參數 double rms = stereoCalibrate(objectPoints, imagePoints[0], imagePoints[1], cameraMatrix[0], distCoeffs[0], cameraMatrix[1], distCoeffs[1], imageSize, R, T, E, F, TermCriteria(CV_TERMCRIT_ITER+CV_TERMCRIT_EPS, 100, 1e-5), CV_CALIB_FIX_ASPECT_RATIO + CV_CALIB_ZERO_TANGENT_DIST + CV_CALIB_SAME_FOCAL_LENGTH + CV_CALIB_RATIONAL_MODEL + CV_CALIB_FIX_K3 + CV_CALIB_FIX_K4 + CV_CALIB_FIX_K5); cout << "done with RMS error=" << rms << endl; // CALIBRATION QUALITY CHECK // because the output fundamental matrix implicitly // includes all the output information, // we can check the quality of calibration using the // epipolar geometry constraint: m2^t*F*m1=0 //計算標定誤差 double err = 0; int npoints = 0; vector<Vec3f> lines[2]; for( i = 0; i < nimages; i++ ) { int npt = (int)imagePoints[0][i].size(); Mat imgpt[2]; for( k = 0; k < 2; k++ ) { imgpt[k] = Mat(imagePoints[k][i]); //校正圖像點坐標 undistortPoints(imgpt[k], imgpt[k], cameraMatrix[k], distCoeffs[k], Mat(), cameraMatrix[k]); //求解對極線 computeCorrespondEpilines(imgpt[k], k+1, F, lines[k]); } //計算求解點與實際點的誤差 for( j = 0; j < npt; j++ ) { double errij = fabs(imagePoints[0][i][j].x*lines[1][j][0] + imagePoints[0][i][j].y*lines[1][j][1] + lines[1][j][2]) + fabs(imagePoints[1][i][j].x*lines[0][j][0] + imagePoints[1][i][j].y*lines[0][j][1] + lines[0][j][2]); err += errij; } npoints += npt; } cout << "average reprojection err = " << err/npoints << endl; // save intrinsic parameters FileStorage fs("intrinsics.yml", CV_STORAGE_WRITE); if( fs.isOpened() ) { fs << "M1" << cameraMatrix[0] << "D1" << distCoeffs[0] << "M2" << cameraMatrix[1] << "D2" << distCoeffs[1]; fs.release(); } else cout << "Error: can not save the intrinsic parameters\n"; Mat R1, R2, P1, P2, Q; Rect validRoi[2]; //雙目視覺校正,根據內參矩陣,兩攝像機之間平移矩陣以及投射矩陣 stereoRectify(cameraMatrix[0], distCoeffs[0], cameraMatrix[1], distCoeffs[1], imageSize, R, T, R1, R2, P1, P2, Q, CALIB_ZERO_DISPARITY, 1, imageSize, &validRoi[0], &validRoi[1]); fs.open("extrinsics.yml", CV_STORAGE_WRITE); if( fs.isOpened() ) { fs << "R" << R << "T" << T << "R1" << R1 << "R2" << R2 << "P1" << P1 << "P2" << P2 << "Q" << Q; fs.release(); } else cout << "Error: can not save the intrinsic parameters\n"; // OpenCV can handle left-right // or up-down camera arrangements bool isVerticalStereo = fabs(P2.at<double>(1, 3)) > fabs(P2.at<double>(0, 3)); // COMPUTE AND DISPLAY RECTIFICATION if( !showRectified ) return; Mat rmap[2][2]; // IF BY CALIBRATED (CALIBRATE'S METHOD) //用標定的話,就不許計算左右相機的透射矩陣 if( useCalibrated ) { // we already computed everything } // OR ELSE HARTLEY'S METHOD else // use intrinsic parameters of each camera, but // compute the rectification transformation directly // from the fundamental matrix { vector<Point2f> allimgpt[2]; for( k = 0; k < 2; k++ ) { for( i = 0; i < nimages; i++ ) std::copy(imagePoints[k][i].begin(), imagePoints[k][i].end(), back_inserter(allimgpt[k])); } F = findFundamentalMat(Mat(allimgpt[0]), Mat(allimgpt[1]), FM_8POINT, 0, 0); Mat H1, H2; stereoRectifyUncalibrated(Mat(allimgpt[0]), Mat(allimgpt[1]), F, imageSize, H1, H2, 3); R1 = cameraMatrix[0].inv()*H1*cameraMatrix[0]; R2 = cameraMatrix[1].inv()*H2*cameraMatrix[1]; P1 = cameraMatrix[0]; P2 = cameraMatrix[1]; } //Precompute maps for cv::remap() //根據左右相機的投射矩陣,校正圖像 initUndistortRectifyMap(cameraMatrix[0], distCoeffs[0], R1, P1, imageSize, CV_16SC2, rmap[0][0], rmap[0][1]); initUndistortRectifyMap(cameraMatrix[1], distCoeffs[1], R2, P2, imageSize, CV_16SC2, rmap[1][0], rmap[1][1]); Mat canvas; double sf; int w, h; if( !isVerticalStereo ) { sf = 600./MAX(imageSize.width, imageSize.height); w = cvRound(imageSize.width*sf); h = cvRound(imageSize.height*sf); canvas.create(h, w*2, CV_8UC3); } else { sf = 300./MAX(imageSize.width, imageSize.height); w = cvRound(imageSize.width*sf); h = cvRound(imageSize.height*sf); canvas.create(h*2, w, CV_8UC3); } for( i = 0; i < nimages; i++ ) { for( k = 0; k < 2; k++ ) { Mat img = imread(goodImageList[i*2+k], 0), rimg, cimg; remap(img, rimg, rmap[k][0], rmap[k][1], CV_INTER_LINEAR); cvtColor(rimg, cimg, COLOR_GRAY2BGR); Mat canvasPart = !isVerticalStereo ? canvas(Rect(w*k, 0, w, h)) : canvas(Rect(0, h*k, w, h)); resize(cimg, canvasPart, canvasPart.size(), 0, 0, CV_INTER_AREA); if( useCalibrated ) { Rect vroi(cvRound(validRoi[k].x*sf), cvRound(validRoi[k].y*sf), cvRound(validRoi[k].width*sf), cvRound(validRoi[k].height*sf)); rectangle(canvasPart, vroi, Scalar(0,0,255), 3, 8); } } if( !isVerticalStereo ) for( j = 0; j < canvas.rows; j += 16 ) line(canvas, Point(0, j), Point(canvas.cols, j), Scalar(0, 255, 0), 1, 8); else for( j = 0; j < canvas.cols; j += 16 ) line(canvas, Point(j, 0), Point(j, canvas.rows), Scalar(0, 255, 0), 1, 8); imshow("rectified", canvas); char c = (char)waitKey(); if( c == 27 || c == 'q' || c == 'Q' ) break; } } static bool readStringList( const string& filename, vector<string>& l ) { l.resize(0); FileStorage fs(filename, FileStorage::READ); if( !fs.isOpened() ) return false; FileNode n = fs.getFirstTopLevelNode(); if( n.type() != FileNode::SEQ ) return false; FileNodeIterator it = n.begin(), it_end = n.end(); for( ; it != it_end; ++it ) l.push_back((string)*it); return true; } int main(int argc, char** argv) { Size boardSize; string imagelistfn; bool showRectified = true; for( int i = 1; i < argc; i++ ) { if( string(argv[i]) == "-w" ) { if( sscanf(argv[++i], "%d", &boardSize.width) != 1 || boardSize.width <= 0 ) { cout << "invalid board width" << endl; return print_help(); } } else if( string(argv[i]) == "-h" ) { if( sscanf(argv[++i], "%d", &boardSize.height) != 1 || boardSize.height <= 0 ) { cout << "invalid board height" << endl; return print_help(); } } else if( string(argv[i]) == "-nr" ) showRectified = false; else if( string(argv[i]) == "--help" ) return print_help(); else if( argv[i][0] == '-' ) { cout << "invalid option " << argv[i] << endl; return 0; } else imagelistfn = argv[i]; } if( imagelistfn == "" ) { imagelistfn = "stereo_calib.xml"; boardSize = Size(9, 6); } else if( boardSize.width <= 0 || boardSize.height <= 0 ) { cout << "if you specified XML file with chessboards, you should also specify the board width and height (-w and -h options)" << endl; return 0; } vector<string> imagelist; bool ok = readStringList(imagelistfn, imagelist); if(!ok || imagelist.empty()) { cout << "can not open " << imagelistfn << " or the string list is empty" << endl; return print_help(); } StereoCalib(imagelist, boardSize, true, showRectified); return 0; }
主要函數說明
cvFindChessboardCorners
功能說明 |
尋找棋盤圖中棋盤角點 |
|
函數聲明 |
vFindChessboardCorners( const void* image, CvSize pattern_size, CvPoint2D32f* corners, int* corner_count = NULL, int flags = CV_CALIB_CB_ADAPTIVE_THRESH ) |
|
參數說明 |
In |
image,輸入的棋盤圖必須是8位灰度或者彩色圖像 |
in |
pattern_size,棋盤圖中每行和每列的角點個數(內角點的個數)。如上圖為(6,7)。 |
|
out |
corners,存儲角點位置的數組指針,該數組表現事先分配空間,而且至少必須大於棋盤的所有角點的個數。 |
|
out |
corner_count,變量是可選的,如果不是NULL,則它是一個指向所記錄角點數目的正數指針。 |
|
in |
flag,用來定義額外的濾波步驟以有助於尋找棋盤角點。所有的變量都可以單獨或者以邏輯或的方式組合使用。CV_CALIB_CB_ADAPTIVE_THRESH ,cvFindChessboardCorners()的默認方式是,首先根據平均亮度對圖像進行二值化,但如果設置此標志,則使用自適應二值化。CV_CALIB_CB_NORMALIZE_IMAGE ,如果設置了該標志,則會在二值化之前應用cvEqualizeHist()來歸一化圖像。CV_CALIB_CB_FILTER_QUADS ,一旦二值化圖像以后,算法試圖根據棋盤上黑色方塊的投影視場中定位四邊形。這是一個逼近的過程,因為四邊形的每個邊都假設為直角,而實際上由於圖像的徑向畸變,這個不完全成立。如果這個標志被設置了,那么將對這個四邊形使用額外的約束以拒絕錯誤的四邊形。函數成功找到所有的角點,則返回非0,否則返回0。 |
|
備注 |
|
cvDrawChessboardCorners
功能說明 |
cvFindChessboardCorners()發現所有角點繪制到所提供的圖像上 |
|
函數聲明 |
cvDrawChessboardCorners( CvArr* image, CvSize pattern_size, CvPoint2D32f* corners, int count, int pattern_was_found ) |
|
參數說明 |
In/out |
image,欲繪制的圖像,該圖像為8位的彩色圖像。 pattern_size, 圖像尺寸 |
in |
||
in |
corners。角點矩陣 |
|
in |
count,角點數目 |
|
in |
pattern_was_found,表示是否所有的棋盤模式都被成功找到,這可以設置為cvFindChessboardCorners()函數的返回值。
|
|
備注 |
如果沒有發現所有的角點,那么角點將使用紅色圓圈繪制。如果發現了所有的角點,那么角點將用不同顏色繪制(每行使用單獨的顏色繪制),並且把角點以一定順序用線連接起來 |
cornerSubPix
功能說明 |
在角點檢測中精確化角點位置 |
|
函數聲明 |
void cornerSubPix( InputArray image, InputOutputArray corners, Size winSize, Size zeroZone,TermCriteria criteria ) |
|
參數說明 |
In |
image:輸入圖像 |
In/out |
corners:輸入角點的初始坐標以及精准化后的坐標用於輸 |
|
in |
出。winSize:搜索窗口邊長的一半,例如如果winSize=Size(5,5),則一個大小為\的搜索窗口將被使用。 |
|
in |
ZeroZone: 不清楚,一般默認為(-1,-1) |
|
in |
Critrria: 插值方式 |
|
備注 |
|
stereoCalibrate
功能說明 |
雙目攝像機標定,計算了兩個攝像頭進行立體像對之間的轉換關系,根據左右相機的參數矩陣,生成兩個相機之間的關系矩陣,以及基本和本質矩陣 |
|
函數聲明 |
double stereoCalibrate(InputArrayOfArrays objectPoints, InputArrayOfArrays imagePoints1, InputArrayOfArrays imagePoints2, InputOutputArray cameraMatrix1, InputOutputArray distCoeffs1, InputOutputArray cameraMatrix2, InputOutputArray distCoeffs2, Size imageSize, OutputArray R, OutputArray T, OutputArray E, OutputArray F, TermCriteria criteria=TermCriteria(TermCriteria::COUNT+TermCriteria::EPS, 30, 1e-6), int flags=CALIB_FIX_INTRINSIC ) |
|
主要參數說明 |
in |
objectPoints–校正的圖像點向量組. |
in |
imagePoints1–通過第一台相機觀測到的圖像上面的向量組. |
|
in |
imagePoints2–通過第二台相機觀測到的圖像上面的向量組. |
|
in |
cameraMatrix1–輸入或者輸出第一個相機的內參數矩陣如果CV_CALIB_USE_INTRINSIC_GUESS , CV_CALIB_FIX_ASPECT_RATIO , CV_CALIB_FIX_INTRINSIC , or CV_CALIB_FIX_FOCAL_LENGTH其中之一參數被指定, 所有或者部分的矩陣參數就必須被初始化. 詳細內容則查看FLAGS的描述。 |
|
In/out |
distCoeffs1–輸入/輸出第一個相機的畸變系數向量 其中的4,5或者8個元素. 輸出向量的長度則是取決於FLAGS的值。 |
|
In/out |
cameraMatrix2–輸入或者輸出第二個相機的內參數矩陣 |
|
In/out |
distCoeffs2–輸入/輸出第二個相機的畸變系數向量 |
|
in |
imageSize–圖像文件的大小——只用於初始化相機內參數矩陣。 |
|
out |
R–輸出第一和第二相機坐標系之間的旋轉矩陣。 |
|
out |
T–輸出第一和第二相機坐標系之間的旋轉矩陣平移向量 |
|
out |
E–輸出本征矩陣。 |
|
out |
F–輸出基礎矩陣。 |
|
in |
term_crit–迭代優化算法終止的標准。 |
|
in |
flags– 不同的FLAG,可能是零或以下值的結合: § CV_CALIB_FIX_INTRINSIC要確認cameraMatrix? and distCoeffs?所以只有R, T, E , 和F矩陣被估計出來 § CV_CALIB_USE_INTRINSIC_GUESS根據指定的FLAG優化一些或全部的內在參數。初始值是由用戶提供。 § CV_CALIB_FIX_PRINCIPAL_POINT在優化過程中確定主點。 § CV_CALIB_FIX_FOCAL_LENGTH確定和 . § CV_CALIB_FIX_ASPECT_RATIO優化 . 確定的比值. § CV_CALIB_SAME_FOCAL_LENGTH執行以及 . § CV_CALIB_ZERO_TANGENT_DIST設置每個相機切向畸變系數為零並且設為固定值。 § CV_CALIB_FIX_K1,...,CV_CALIB_FIX_K6在優化中不改變相應的徑向畸變系數. 如果設置CV_CALIB_USE_I NTRINSIC_GUESS , 使用distCoeffs矩陣提供的系數。否則將其置零. § CV_CALIB_RATIONAL_MODEL能夠輸出系數k4,k5,k6。提供向后兼容性,這額外FLAG應該明確指定校正函數使用理性模型和返回8個系數。如果FLAG沒有被設置,該函數計算並只返回5畸變系數。 |
|
備注 |
如果你有一個立體相機的相對位置,並且兩個攝像頭的方向是固定的,以及你計算了物體相對於第一照相機和第二照相機的姿態,(R1,T1)和(R2,T2),各自(這個可以通過solvepnp()做到)通過這些姿態確定。這意味着,給定予(:數學:t_1),就可以計算(:數學:t_2)。你只需要知道第二相機相對於第一相機的位置和方向。 除了立體的相關信息,該函數也可以兩個相機的每一個做一個完整的校准。然而,由於在輸入數據中的高維的參數空間和噪聲的,可能偏離正確值。如果每個單獨的相機內參數可以被精確估計(例如,使用calibratecamera()),建議您這樣做,然后在本征參數計算之中使用CV_CALIB_FIX_INTRINSIC的功能。否則,如果一旦計算出所有的參數,它將會合理的限制某些參數,例如,傳遞CV_CALIB_SAME_FOCAL_LENGTH and CV_CALIB_ZERO_TANGENT_DIST,這通常是一個合理的假設。 與calibratecamera()類似,該函數最大限度地減少了從相機中所有可用的視圖的所有點的總的重投影誤差。該函數返回的重投影誤差最終值。
|
cvCalibrateCamera
功能說明 |
利用定標來計算攝像機的內參數和外參數 |
|
|
函數聲明 |
oid cvCalibrateCamera2( CvMat* object_points, CvMat* image_points, int* point_counts, CvSize image_size, CvMat* intrinsic_matrix, CvMat* distortion_coeffs, CvMat* rotation_vectors = NULL, CvMat* translation_vectors = NULL, int flags = 0 ); |
|
|
參數說明 |
|
object_points,是一個N×3的矩陣,如果對於每一個棋盤,我們有k個角點,並且我們通過旋轉棋盤,得到棋盤的M的視場圖,那么此時N=k×M。 在使用棋盤的場合,我們另點z的坐標值為0,而x,y坐標用里面來度量,選用英寸單位,那么所有參數計算的結果也是用英寸表示。最簡單的方式是我們定義棋盤的每一個方塊為一個單位。 |
|
|
image_points,是一個N×2的矩陣。包含object_points所提供的所有點的坐標。在圖像中尋找到的角點的坐標。 |
||
|
point_counts,每個圖像上角點的個數,以M×1矩陣形式提供,M是視場的數目 |
||
|
image_size,圖像的大小,以像素為衡量單位。 |
||
|
intrinsic_matrix,攝像機內參數矩陣3×3大小。可以作為輸入變量(此時會影響計算的結果),可以作為輸出變量(本來主要就是為了求解該參數),內參數矩陣完全定義了理想攝像機模型的攝像機行為。 |
||
|
distortion_matrix,畸變系數,為5×1大小的矢量,可以作為輸入變量,可以作為輸出變量(同上),畸變系數的記錄順序是:k1,k2,p1,p2,k3; |
||
|
rotation_vectors,大小為M×3,M為視場的個數。旋轉矢量的講解參考上一篇文章。可以通過cvRodrigues2()將旋轉矢量轉換為旋轉矩陣。 |
||
|
translation_vectors,大小為M×3矩陣。 函數中的標志位: 1、CV_CALIB_USE_INTRINSIC_GUESS cvCalibrateCamera2()計算內參數矩陣的時候,通常不需要額外的信息。具體來說,參數cx和cy(圖像中心)的初始值可以直接從變量image_size中得到(即(H-1)/2,(W-1)/2)),如果設置了該變量那么instrinsic_matrix假設包含正確的值,並被用作初始猜測,為cvCalibrateCamera2()做優化時所用。 2、CV_CALIB_USE_PRINCIPAL_POINT 可以和CV_CALIB_USE_INTRINSIC_GUESS 一起使用。如果僅設置了該標志位,那么設置圖像的中心作為主點。如果一起使用,則設置主點位置為intrinsic_matrix矩陣提供的初始值。(這也是為什么,instrinsic_matrix不僅可以作為輸出,也可以作為輸入的原因了) 3、CV_CALIB_FIX_ASPECT_RATIO 如果設置了該標志位,那么在調用標定程序時,優化過程只同時改變fx和fy,而固定intrinsic_matrix的其他值(如果 CV_CALIB_USE_INTRINSIC_GUESS也沒有被設置,則intrinsic_matrix中的fx和fy可以為任何值,但比例相關)。 4、CV_CALIB_FIX_FOCAL_LENGTH 該標志位在優化的時候,直接使用 intrinsic_matrix傳遞過來的fx和fy。 5、CV_CALIB_FIX_K1,CV_CALIB_FIX_K2,CV_CALIB_FIX_K3 固定徑向畸變k1,k2,k3。徑向畸變參數可以通過組合這些標志設置為任意值。一般地最后一個參數應設置為0,初始使用魚眼透鏡。 6、CV_CALIB_ZERO_TANGENT_DIST 該標志在標定高級攝像機的時候比較重要,因為精確制作將導致很小的徑向畸變。試圖將參數擬合0會導致噪聲干擾和數值不穩定。通過設置該標志可以關閉切向畸變參數p1和p2的擬合,即設置兩個參數為0。 |
||
|
|||
備注 |
cvFindExtrinsicCameraParams2
功能說明 |
計算攝像機外部參數 |
|
函數聲明 |
void cvFindExtrinsicCameraParams2( const CvMat* object_points, const CvMat* image_points, const CvMat* intrinsic_matrix, const CvMat* distortion_coeffs, CvMat* rotation_vector, CvMat* translation_vector ); |
|
參數說明 |
in |
const CvMat* object_points: 世界坐標系實際坐標矩陣 |
in |
const CvMat* image_points:圖像坐標系坐標矩陣 |
|
in |
const CvMat* intrinsic_matrix:內參矩陣 |
|
in |
const CvMat* distortion_coeffs:畸變矩陣 |
|
out |
CvMat* rotation_vector: 轉移矩陣 |
|
out |
CvMat* translation_vector :平移矩陣 |
|
備注 |
根據圖像坐標點,世界坐標點,內參數矩陣和畸變矩陣一起計算外部外餐 |
ProjectPoints2
功能說明 |
投影三維點到圖像平面 |
|
函數聲明 |
void cvProjectPoints2( const CvMat* object_points, const CvMat* rotation_vector, const CvMat* translation_vector, const CvMat* intrinsic_matrix, const CvMat* distortion_coeffs, CvMat* image_points, CvMat* dpdrot=NULL, CvMat* dpdt=NULL, CvMat* dpdf=NULL, CvMat* dpdc=NULL, CvMat* dpddist=NULL ); |
|
參數說明 |
in |
bject_points物體點的坐標,為3xN或者Nx3的矩陣 |
in |
rotation_vector 旋轉向量,1x3或者3x1。 |
|
in |
translation_vector 平移向量,1x3或者3x1。 |
|
in |
intrinsic_matrix攝像機內參數矩陣 |
|
in |
distortion_coeffs形變參數向量,4x1或者1x4,為[k1,k2,p1,p2]。如果是NULL,所有形變系數都設為0。 |
|
out |
image_points輸出數組,存儲圖像點坐標。大小為2xN或者Nx2,這兒N是視圖中的所有點的數目。 |
|
in |
dpdrot旋轉向量部分的圖像上點導數,Nx3矩陣。 |
|
in |
dpdt平移向量部分的圖像上點導數,Nx3矩陣。 |
|
in |
dpdf可選參數,關於fx和fy的圖像上點的導數,Nx2矩陣。 |
|
in |
dpdc可選參數, cx和cy的圖像上點的導數,Nx2矩陣。 |
|
in |
dpddist可選參數,關於形變系數的圖像上點的導數,Nx4矩陣。 |
|
備注 |
函數cvProjectPoints2通過給定的內參數和外參數計算三維點投影到二維圖像平面上的坐標。另外,這個函數可以計算關於投影參數的圖像點偏導數的雅可比矩陣。雅可比矩陣可以用在cvCalibrateCamera2和cvFindExtrinsicCameraParams2函數的全局優化中。這個函數也可以用來計算內參數和外參數的反投影誤差 |