本文主要是介绍《SLAM十四讲》7.4 对极约束求解相机运动(代码详解),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
先上完整代码,稍后进行详细解释
完整代码包括上一章讲到的ORB特征检测与匹配部分,在这里ORB部分的内容封装到了函数find_feature_matches()中。
关于该代码的介绍《十四讲》中的原话是:“上一节实践部分的程序提供了特征匹配,而这次我们就使用匹配好的特征点来计算 E,F 和 H,进而分解 E 得到 R,t。整个程序使用 OpenCV 提供的算法进行求解。我们把上一节的特征提取封装成函数,以供后面使用。”
#include <iostream>
#include <opencv2/core/core.hpp>
#include <opencv2/features2d/features2d.hpp>
#include <opencv2/highgui/highgui.hpp>
#include <opencv2/calib3d/calib3d_c.h>
#include <cv.hpp>using namespace std;
using namespace cv;// 像素坐标转相机归一化坐标
Point2d pixel2cam ( const Point2d& p, const Mat& K );//两张图像得到关键点(keypoints)和描述子之间匹配关系(matches)
void find_feature_matches(const Mat& img_1, const Mat& img_2,vector<KeyPoint>& keypoints_1,vector<KeyPoint>& keypoints_2,vector<DMatch>& matches);
//从特征点(keypoints)和匹配关系(matches)求解位姿(R,t)
void pose_estimation_2d2d(const vector<KeyPoint> keypoints_1,const vector<KeyPoint> keypoints_2,const vector<DMatch> matches,Mat& R, Mat& t);int main(int argc, char **argv) {if(argc != 3){cout << "usage: feature_extraction img1 img2" << endl;return 1;}//--读取图像,通过特征点检测函数Mat img_1 = imread(argv[1],CV_LOAD_IMAGE_COLOR);Mat img_2 = imread(argv[2],CV_LOAD_IMAGE_COLOR);vector<KeyPoint> keypoints_1, keypoints_2;vector<DMatch> matches;find_feature_matches(img_1, img_2, keypoints_1, keypoints_2, matches);cout << "一共找到了"<< matches.size() << "组匹配点"<< endl;//--估计两张图像间的运动Mat R, t;pose_estimation_2d2d(keypoints_1, keypoints_2, matches, R, t);//--验证 E=t^R*scale//--计算反对称矩阵Mat t_x = (Mat_<double>(3,3)<<0, -t.at<double>(2, 0), t.at<double>(1, 0),t.at<double>(2, 0), 0, -t.at<double>(0, 0),-t.at<double>(1, 0), t.at<double>(0, 0), 0);cout << "t^R="
这篇关于《SLAM十四讲》7.4 对极约束求解相机运动(代码详解)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!