python计算机视觉编程第五章——多视图几何

2024-09-04 03:12

本文主要是介绍python计算机视觉编程第五章——多视图几何,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

一、外极几何

多视图几何是利用在不同视点所拍摄图像间的关系,来研究照相机之间或者特征之间关系的一门学科。

如果有一个场景的两个视图以及视图中对应图像点,那么根据照相机间的空间相对位置关系、照相机的性质以及三维场景点的位置,可以得到对这些图像点的一些几何关系约束。我们通过外极几何来描述这些几何关系。利用照相机方程,可以将上述问题描述为:

\lambda x=PX=PH^{-1}HX=\hat{P}\hat{X}

将原点和坐标轴与第一个照相机对齐,则:

P_1=K_1[I|0]P_2=K_2[R|T]

其中K1和K2是标定矩阵,R是第二个照相机的旋转矩阵,t是第二个照相机的平移向量。利用这些照相机参数矩阵,我们可以找到点X的投影点x1和x2(分别对应于投影矩阵P1和P2)的关系。这样,我们可以从寻找对应的图像出发,恢复照相机参数矩阵。

同一个图像点经过不同的投影矩阵产生的不同投影点必须满足:

x_2^TFx_1=0

其中:

F=K_2^{-T}S_tRK_1^{-1}

矩阵St为反对称矩阵:


上述为外极约束条件。矩阵F为基础矩阵。基础矩阵可以由两照相机的参数矩阵(相对旋转R和平移t)表示。由于det(F)=0,所以基础矩阵的秩小于等于2。我们将在估计F的算法中用到这些性质。

利用上面的理论处理一些图像数据前,我们还需要了解一些几何学知识。给定图像中的一个点,例如第二个视图中的图像点x2,利用上述公式,我们可以找到对应第一幅图像的一条直线:

x_2^TFx_1=l_1^Tx_1=0

其中I1T=0是第一幅图像中的一条直线。这条线称为对应于点x2的外极线,也就是说,点x2在第一幅图像中的对应点一定在这条线上。所以,基础矩阵可以将对应点的搜索限制在外极线上。

1一个简单的数据集 

from pylab import *
import camera
from PIL import Image
# 载入一些图像
im1 = array(Image.open('E:/Merton College I/images/001.jpg'))
im2 = array(Image.open('E:/Merton College I\images/002.jpg'))# 载入每个视图的二维点到列表中
points2D = [loadtxt('E:/Merton College I/2D/00'+str(i+1)+'.corners').T for i in range(3)]# 载入三维点
points3D = loadtxt('E:/Merton College I/3D\p3d').T# 载入对应
corr = genfromtxt('E:/Merton College I/2D/nview-corners')# 载入照相机矩阵到 Camera 对象列表中
P = [camera.Camera(loadtxt('E:/Merton College I/2D/00'+str(i+1)+'.P')) for i in range(3)]# 将三维点转换成齐次坐标表示,并投影
X = vstack( (points3D, ones(points3D.shape[1])))
x = P[0].project(X)# 在视图1中绘制点
figure()
imshow(im1)
plot(points2D[0][0], points2D[0][1],'*')
axis('off')figure()
imshow(im1)
plot(x[0],x[1],'r.')
axis('off')
show()

运行结果: 

 

 2 用Matplotlib绘制三维数据

为了可视化三维重建结果,我们需要绘制出三维图像。Matplotlib中的mplot3d工具可以方便地绘制出三维点、线、等轮廓线、表面以及其他基本图形组件,还可以通过图像窗口控件实现三维旋转和缩放。

from mpl_toolkits.mplot3d import axes3d
from pylab import *fig = figure()
#ax = fig.gca(projection='3d')
ax = fig.add_subplot(projection = '3d')
# 生成三维样本点
X, Y, Z = axes3d.get_test_data(0.25)# 在三维中绘制点
ax.plot(X.flatten(),Y.flatten(),Z.flatten(),'o')show()

现在通过画出Merton样本数据来观察三维点的效果:

fig = figure()
ax = fig.gca(projection='3d')
ax.plot(points3D[0],points3D[1],points3D[2],'k.')
show()

3计算F:八点法 

八点法是通过对应点来计算基础矩阵的算法。

八点算法的基本步骤:
1)求线性解 由系数矩阵A最小奇异值对应的奇异向量f求的F。
2)奇异性约束 是最小化Frobenius范数\left \| F- {F}'\right \|中的F’代替F。

新建一个文件sfm.py,写入下面八点法中最小化\left \| AF \right \|的函数:

我们通常用SVD算法来计算最小二乘解。由于上面算法得出的解可能秩不为2(基础矩阵的秩小于等于2),所以我们通过将最后一个奇异值置0来得到秩最接近2的基础矩阵。这是个很有用的技巧。上面的函数忽略了一个重要的步骤:对图像坐标进行归一化,这可能会带来数值问题。

实验步骤:

1)sift提取特征
2)RANSAC去除错误点匹配
3)归一化8点算法估计基础矩阵

from PIL import Image
from numpy import *
from pylab import *
import numpy as np
import camera
import homography
import sfm
import siftdef compute_fundamental(x1, x2):"""使用归一化的八点算法,从对应点(x1,x2 3×n的数组)中计算基础矩阵每行由如下构成:[x'*x, x'*y' x', y'*x, y'*y, y', x, y, 1]"""n = x1.shape[1]if x2.shape[1] != n:raise ValueError("Number of points don't match.")# 创建方程对应的矩阵A = zeros((n,9))for i in range(n):A[i] = [x1[0, i] * x2[0, i], x1[0, i] * x2[1, i], x1[0, i] * x2[2, i],x1[1, i] * x2[0, i], x1[1, i] * x2[1, i], x1[1, i] * x2[2, i],x1[2, i] * x2[0, i], x1[2, i] * x2[1, i], x1[2, i] * x2[2, i]]# 计算线性最小二乘解U,S,V = linalg.svd(A)F = V[-1].reshape(3,3)# 受限F# 通过将最后一个奇异值置0,使秩为2U,S,V = linalg.svd(F)S[2] = 0F = dot(U, dot(diag(S), V))return F# 载入图像,并计算特征
im1 = array(Image.open('book_frontal.JPG'))
sift.process_image('book_frontal.JPG','im0.sift')
l1, d1 = sift.read_features_from_file('im0.sift')im2 = array(Image.open('\book_perspective.JPG'))
sift.process_image('book_perspective.JPG','im1.sift')
l2, d2 = sift.read_features_from_file('im1.sift')# 匹配特征
matches = sift.match_twosided(d1, d2)
ndx = matches.nonzero()[0]# 使用齐次坐标表示,并使用inv(K)归一化
x1 = homography.make_homog(l1[ndx, :2].T)
ndx2 = [int(matches[i]) for i in ndx]
x2 = homography.make_homog(l2[ndx2, :2].T)x1n = x1.copy()
x2n = x2.copy()
print(len(ndx))figure(figsize=(16,16))
sift.plot_matches(im1, im2, l1, l2, matches, True)
show()# Don't use K1, and K2#def F_from_ransac(x1, x2, model, maxiter=5000, match_threshold=1e-6):
def F_from_ransac(x1, x2, model, maxiter=5000, match_threshold=1e-6):""" Robust estimation of a fundamental matrix F from pointcorrespondences using RANSAC (ransac.py fromhttp://www.scipy.org/Cookbook/RANSAC).input: x1, x2 (3*n arrays) points in hom. coordinates. """import ransacdata = np.vstack((x1, x2))d = 20 # 20 is the original# compute F and return with inlier indexF, ransac_data = ransac.ransac(data.T, model,8, maxiter, match_threshold, d, return_all=True)return F, ransac_data['inliers']# find E through RANSAC
# 使用 RANSAC 方法估计 E
model = sfm.RansacModel()
F, inliers = F_from_ransac(x1n, x2n, model, maxiter=5000, match_threshold=1e-4)print(len(x1n[0]))
print(len(inliers))# 计算照相机矩阵(P2 是 4 个解的列表)
P1 = array([[1, 0, 0, 0], [0, 1, 0, 0], [0, 0, 1, 0]])
P2 = sfm.compute_P_from_fundamental(F)# triangulate inliers and remove points not in front of both cameras
X = sfm.triangulate(x1n[:, inliers], x2n[:, inliers], P1, P2)# plot the projection of X
cam1 = camera.Camera(P1)
cam2 = camera.Camera(P2)
x1p = cam1.project(X)
x2p = cam2.project(X)figure()
imshow(im1)
gray()
plot(x1p[0], x1p[1], 'o')
#plot(x1[0], x1[1], 'r.')
axis('off')figure()
imshow(im2)
gray()
plot(x2p[0], x2p[1], 'o')
#plot(x2[0], x2[1], 'r.')
axis('off')
show()figure(figsize=(16, 16))
im3 = sift.appendimages(im1, im2)
im3 = vstack((im3, im3))imshow(im3)cols1 = im1.shape[1]
rows1 = im1.shape[0]
for i in range(len(x1p[0])):if (0<= x1p[0][i]<cols1) and (0<= x2p[0][i]<cols1) and (0<=x1p[1][i]<rows1) and (0<=x2p[1][i]<rows1):plot([x1p[0][i], x2p[0][i]+cols1],[x1p[1][i], x2p[1][i]],'c')
axis('off')
show()print(F)x1e = []
x2e = []
ers = []
for i,m in enumerate(matches):if m>0: #plot([locs1[i][0],locs2[m][0]+cols1],[locs1[i][1],locs2[m][1]],'c')x1=int(l1[i][0])y1=int(l1[i][1])x2=int(l2[int(m)][0])y2=int(l2[int(m)][1])# p1 = array([l1[i][0], l1[i][1], 1])# p2 = array([l2[m][0], l2[m][1], 1])p1 = array([x1, y1, 1])p2 = array([x2, y2, 1])# Use Sampson distance as errorFx1 = dot(F, p1)Fx2 = dot(F, p2)denom = Fx1[0]**2 + Fx1[1]**2 + Fx2[0]**2 + Fx2[1]**2e = (dot(p1.T, dot(F, p2)))**2 / denomx1e.append([p1[0], p1[1]])x2e.append([p2[0], p2[1]])ers.append(e)
x1e = array(x1e)
x2e = array(x2e)
ers = array(ers)indices = np.argsort(ers)
x1s = x1e[indices]
x2s = x2e[indices]
ers = ers[indices]
x1s = x1s[:20]
x2s = x2s[:20]figure(figsize=(16, 16))
im3 = sift.appendimages(im1, im2)
im3 = vstack((im3, im3))imshow(im3)cols1 = im1.shape[1]
rows1 = im1.shape[0]
for i in range(len(x1s)):if (0<= x1s[i][0]<cols1) and (0<= x2s[i][0]<cols1) and (0<=x1s[i][1]<rows1) and (0<=x2s[i][1]<rows1):plot([x1s[i][0], x2s[i][0]+cols1],[x1s[i][1], x2s[i][1]],'c')
axis('off')
show()

4 外极线和外极点 

外极点满足Fe1=0,因此可以通过计算F的零空间来得到。把下面的函数添加到sfm.py中: 

def compute_epipole(F):"""从基础矩阵F中计算右极点(可以使用F.T获得左极点)"""# 返回F的零空间(Fx=0)U,S,V = linalg.svd(F)e = V[-1]return e/e[2]

如果想获得另一幅图像的外极点(对应左零空间的外极点),只需将F FF转置后输入上述函数即可。我们可以在之前样本数据集的前两个视图上运行这两个函数:

from pylab import *
import camera
from PIL import Image
from mpl_toolkits.mplot3d import axes3d
import sfm
# 载入一些图像
im1 = array(Image.open('E:/Merton College I/images/001.jpg'))
im2 = array(Image.open('E:/Merton College I/images/002.jpg'))# 载入每个视图的二维点到列表中
points2D = [loadtxt('E:/Merton College I/2D/00'+str(i+1)+'.corners').T for i in range(3)]# 载入三维点
points3D = loadtxt('E:/Merton College I/3D/p3d').T# 载入对应
corr = genfromtxt('E:/Merton College I/2D/nview-corners',dtype='int',missing_values='*')# 载入照相机矩阵到 Camera 对象列表中
P = [camera.Camera(loadtxt('E:/Merton College I/2D/00'+str(i+1)+'.P')) for i in range(3)]# 将三维点转换成齐次坐标表示,并投影
X = vstack( (points3D, ones(points3D.shape[1])))
x = P[0].project(X)# # 在视图1中绘制点
# figure()
# imshow(im1)
# plot(points2D[0][0], points2D[0][1],'*')
# axis('off')
#
# figure()
# imshow(im1)
# plot(x[0],x[1],'r.')
# axis('off')
# show()# fig = figure()
# ax = fig.gca(projection='3d')
# ax.plot(points3D[0],points3D[1],points3D[2],'k.')
# show()
#在前两个视图中点的索引
ndx = (corr[:,0]>=0) & (corr[:,1]>=0)#获得坐标,并将其用齐次坐标表示
x1 = points2D[0][:,corr[ndx,0]]
x1 = vstack((x1,ones(x1.shape[1])))
x2 = points2D[1][:,corr[ndx,1]]
x2 = vstack((x2,ones(x2.shape[1])))#计算F
F = sfm.compute_fundamental(x1,x2)#计算极点
e = sfm.compute_epipole(F)#绘制图像
figure()
imshow(im1)#分别绘制每条线,这样会绘制出很漂亮的颜色
for i in range(5):sfm.plot_epipolar_line(im1,F,x2[:,i],e,False)
axis('off')figure()
imshow(im2)#分别绘制每个点,这样绘制出和线同样的颜色
for i in range(5):plot(x2[0,i],x2[1,i],'o')
axis('off')
show()

 

二、照相机和三维结构的计算 

1三角剖分

给定照相机参数模型,图像点可以通过三角剖分来恢复出这些点的三维位置。基本的算法思想如下。

对于两个照相机P1和P2的视图,三维实物点X的投影点为x1和x2(这里用齐次坐标表示),照相机方程定义了下列关系:

由于图像噪声、照相机参数误差和其他系统误差,上面的方程可能没有精确解。我们可以通过SVD算法来得到三维点的最小二乘估值。

下面的函数用于计算一个点对的最小二乘三角剖分,把它添加到sfm.py中:

def triangulate_point(x1,x2,P1,P2):"""使用最小二乘解,绘制点对的三角剖分"""M = zeros((6,6))M[:3,:4] = P1M[3:,:4] = P2M[:3,4] = -x1M[3:,5] = -x2U,S,V = linalg.svd(M)X = V[-1,:4]return X / X[3]

最后一个特征向量的前4个值就是齐次坐标下的对应三维坐标。我们可以增加下面的函数来实现多个点的三角剖分:

def triangulate(x1, x2, P1, P2):"""x1和x2(3×n的齐次坐标表示)中点的二视图三角剖分"""n = x1.shape[1]if x2.shape[1] != n:raise ValueError("Number of points don't match")X = [ triangulate_point(x1[:,i], x2[:,i], P1, P2) for i in range(n)]return array(X).T

 

算法估计出的三维图像点和实际图像点很接近,从结果绘图来看,估计点和实际点可以很好地匹配。

2 由三维点计算照相机矩阵

如果已经知道了一些三维点及其图像投影,我们可以使用直接线性变换的方法来计算照相机矩阵P。本质上,这是三角剖分方法的逆问题,有时我们将其称为照相机反切法。利用该方法恢复照相机矩阵同样也是一个最小二乘问题。

我们从照相机方程可以得出,每个三维点Xi(齐次坐标下)按照

\lambda_ix_i=PX_i

投影到图像点x_i=[x_i,y_i,1]相应的点满足下面的关系:

其中p1,p2,p3是矩阵P的三行。上面的式子可以写的更紧凑,如下所示:Mv=0

然后,我们可以使用SVD分解估计出照相机矩阵。利用上面讲述的矩阵操作,我们可以直接写出相应的代码,加入到sfm.py中:

def compute_P(x, X):"""由二维-三维对应对(齐次坐标表示)计算照相机矩阵"""n = x.shape[1]if X.shape[1] != n:raise ValueError("Number of points don't match")# 创建用于计算DLT解的矩阵M = zeros((3*n,12+n))for i in range(n):M[3*i,0:4] = X[:,i]M[3*i+1,4:8] = X[:,i]M[3*i+2,8:12] = X[:,i]M[3*i:3*i+3,i+12] = -x[:,i]U,S,V = linalg.svd(M)return V[-1,:12].reshape((3,4))

该函数的输入参数为图像点和三维点,构造出上述所示的M矩阵。最后一个特征向量的前12个元素是照相机矩阵的元素,经过重新排列成矩阵形状后返回。

下面,在我们的样本数据集上测试算法性能。下面的代码会选出第一个视图中的一些可见点(使用对应列表中缺失的数值),将它们转化为齐次坐标表示,然后估计照相机矩阵:

from pylab import *
from PIL import Image
from mpl_toolkits.mplot3d import axes3d
from PCV.geometry import camera
from PCV.geometry import sfm
from PCV.localdescriptors import sift
# 载入一些图像
im1 = array(Image.open('D:\\123\图像处理\Image Processing\Image Processing\Chapter5\\001.jpg'))
im2 = array(Image.open('D:\\123\图像处理\Image Processing\Image Processing\Chapter5\\002.jpg'))# 载入每个视图的二维点到列表中
points2D = [loadtxt('D:\\123\图像处理\Image Processing\Image Processing\Chapter5\\00'+str(i+1)+'.corners').T for i in range(3)]# 载入三维点
points3D = loadtxt('D:\\123\图像处理\Image Processing\Image Processing\Chapter5\p3d').T# 载入对应
corr = genfromtxt('D:\\123\图像处理\Image Processing\Image Processing\Chapter5\\nview-corners',dtype='int',missing_values='*')# 载入照相机矩阵到 Camera 对象列表中
P = [camera.Camera(loadtxt('D:\\123\图像处理\Image Processing\Image Processing\Chapter5\\00'+str(i+1)+'.P')) for i in range(3)]# 将三维点转换成齐次坐标表示,并投影
X = vstack( (points3D, ones(points3D.shape[1])))
x = P[0].project(X)corr = corr[:,0]    # 视图1
ndx3D = where(corr>0)[0]    # 丢失的数值为-1
ndx2D = corr[ndx3D]# 选取可见点,并用齐次坐标表示
x = points2D[0][:,ndx2D]    # 视图1
x = vstack((x, ones(x.shape[1])))
X = points3D[:,ndx3D]
X = vstack((X,ones(X.shape[1])))# 估计P
Pest = camera.Camera(sfm.compute_P(x, X))# 比较!
print(Pest.P / Pest.P[2,3])
print(P[0].P / P[0].P[2,3])xest = Pest.project(X)# 绘制图像
figure()
imshow(im1)
plot(x[0],x[1],'bo')
plot(xest[0],xest[1],'r.')
axis('off')show()

运行结果: 

3 由基础矩阵计算照相机矩阵 

1.未标定的情况——投影重建
在没有任何照相机内参数知识的情况下,照相机矩阵只能通过射影变换恢复出来。也就是说,如果利用照相机的信息来重建三维点,那么该重建只能由射影变换计算出来(你可以得到整个投影场景中无畸变的重建点)。在这里,我们不考虑角度和距离。

因此,在无标定的情况下,第二个照相机矩阵可以使用一个(3×3)的射影变换得出。一个简单的方法是:

P_2=[S_eF|e]

其中,e是左极点,满足eTF=0,Se是反对称矩阵。请注意,使用该矩阵做出的三角剖分很有可能会发生畸变,如倾斜的重建。

def compute_P_from_fundamental(F):"""从基础矩阵中计算第二个照相机矩阵(假设 P1 = [I 0])"""e = compute_epipole(F,T)  #左极点Te = skew(e)return vstack((dot(Te,F.T).T,e)).Tdef skew(a):"""反对称矩阵A,使得对于每个v有a×v=Av""" return array([[0,-a[2],a[1]],[a[2],0,-a[0]],[-a[1],a[0],0]])

2.已标定的情况——度量重建
在已经标定的情况下,重建会保持欧式空间中的一些度量特性(除了全局的尺度参数)。在重建三维场景中,已标定的例子更为有趣。

给定标定矩阵K,我们可以将它的逆K-1作用于图像点x_{k}=K^{-1}x,因此,在新的图像坐标系下,照相机方程变为:

x_K=K^{-1}K[R|t]X=[R|t]X

在新的图像坐标系下,点同样满足之前的基础矩阵方程:

x_{K_2}^TFx_{K_1}=0

在标定归一化的坐标系下,基础矩阵称为本质矩阵。为了区别为标定后的情况,以及归一化了的图像坐标,通常将其记为E,而非F。从本质矩阵中恢复出的照相机矩阵中存在度量关系,但有四个可能解。因为只有一个解产生位于两个照相机前的场景,所以可以从中选出来。

下面是具体计算4个解的代码:

def compute_P_from_essential(E):"""从本质矩阵中计算第二个照相机矩阵(假设 P1 = [I 0])输出为4个可能的照相机矩阵列表"""# 保证E的秩为2U, S, V = svd(E)if det(dot(U, V)) < 0:V = -VE = dot(U, dot(diag([1, 1, 0]), V))# 创建矩阵(Hartley)Z = skew([0, 0, -1])W = array([[0, -1, 0], [1, 0, 0], [0, 0, 1]])# 返回所有(4个)解P2 = [vstack((dot(U, dot(W, V)).T, U[:, 2])).T,vstack((dot(U, dot(W, V)).T, -U[:, 2])).T,vstack((dot(U, dot(W.T, V)).T, U[:, 2])).T,vstack((dot(U, dot(W.T, V)).T, -U[:, 2])).T]return P2

三、多视图重建

下面让我们来看,如何使用上面的理论从多幅图像中计算出真实的三维重建。由于照相机的运动给我们提供了三维结构,所以这样计算三维重建的方法通常称为SfM(Structure from Motion,从运动中恢复结构)。

假设照相机已经标定,计算重建可以分为下面4个步骤:

  1. 检测特征点,然后在两幅图像间匹配
  2. 由匹配计算基础矩阵
  3. 由基础矩阵计算照相机矩阵
  4. 三角剖分这些三维点

我们已经具备了完成上面4个步骤所需的所有工具。但是当图像间的点对应包含不正确的匹配时,我们需要一个稳健的方法来计算基础矩阵。

1 稳健估计基础矩阵

类似于之前的稳健估计单应性矩阵,当存在噪声和不正确匹配时,我们需要估计基础矩阵。和前面方法一样,我们使用RANSAC方法,只不过这次结合了八点算法。注意,八点算法在平面场景中会失效,所以,如果场景点都位于平面,则不能使用该算法。

def F_from_ransac(x1,x2,model,maxiter=5000,match_theshold=1e-6):"""使用RANSAC方法,从点对应中稳健地估计基础矩阵F输入:使用齐次坐标表示的点x1,x2(3*n的数组)""" import ransacdata = vstack((x1,x2))#计算F,并返回正确点索引F,ransac_data = ransac.ransac(data.T,model,8,maxiter,match_theshold,20,return_all=True)return F,ransac_data['inliers']def compute_fundamental_normalized(x1,x2):"""使用归一化的八点算法,由对应点(x1,x2 3*n 的数组)计算基础矩阵"""n = x1.shape[1]if x2.shape[1]!=n:raise ValueError("Number of points don't match.")#归一化图像坐标x1 = x1/x1[2]mean_1 = mean(x1[:2],axis=1)S1 = sqrt(2)/std(x1[:2])T1 = array([[S1,0,-S1*mean_1[0]],[0,S1,-S1*mean_1[1]],[0,0,1]])x1 = dot(T1,x1)x2 = x2/x2[2]mean_2 = mean(x2[:2],axis=1)S2 = sqrt(2)/std(x2[:2])T2 = array([[S2,0,-S2*mean_2[0]],[0,S2,-S2*mean_2[1]],[0,0,1]])x2 = dot(T2,x2)#使用归一化的坐标计算FF = compute_fundamental(x1,x2)#反归一化F = dot(T1.T,dot(F,T2))return F/F[2,2]class RansacModel(object):"""用从http://www.scipy.org/Cookbook/RANSAC 下载的ransac.py 计算基础矩阵的类"""    def __init__(self,debug=False):self.debug = debugdef fit(self,data):"""使用选择的8个对应计算基础矩阵"""#转置,并将数据分成两个点集data = data.Tx1 = data[:3,:8]x2 = data[3:,:8]#估算基础矩阵,并返回F = compute_fundamental_normalized(x1,x2)return Fdef get_error(self,data,F):"""计算所有对应的x^T F X,并返回每个变换后点的误差"""#转置,并将数据分成两个点集data = data.Tx1 = data[:3]x2 = data[3:]#将sampson距离用作误差度量Fx1 = dot(F,x1)Fx2 = dot(F,x2)denom = Fx1[0]**2 + Fx1[1]**2 + Fx2[0]**2 +Fx2[1]**2err = (diag(dot(x1.T,dot(F,x2)))) **2/denom#返回每个点的误差return err

2 三维重建示例 

from PIL import Image
from pylab import *
import numpy as np
from PCV.geometry import camera
from PCV.geometry import homography
from PCV.geometry import sfm
from PCV.localdescriptors import sift
from mpl_toolkits.mplot3d import axes3d# 标定矩阵
K = array([[2394, 0, 932], [0,2398,628], [0,0,1]])# 载入图像
im1 = array(Image.open('D:\\123\图像处理\Image Processing\Image Processing\Chapter5\\alcatraz1.jpg'))
sift.process_image('D:\\123\图像处理\Image Processing\Image Processing\Chapter5\\alcatraz1.jpg','im2.sift')
l1, d1 = sift.read_features_from_file('im2.sift')im2 = array(Image.open('D:\\123\图像处理\Image Processing\Image Processing\Chapter5\\alcatraz2.jpg'))
sift.process_image('D:\\123\图像处理\Image Processing\Image Processing\Chapter5\\alcatraz2.jpg','im3.sift')
l2, d2 = sift.read_features_from_file('im3.sift')# 特征匹配
matches = sift.match_twosided(d1, d2)
ndx = matches.nonzero()[0]# 使用齐次坐标表示,并使用inv(K)归一化
x1 = homography.make_homog(l1[ndx,:2].T)
ndx2 = [int(matches[i]) for i in ndx]
x2 = homography.make_homog(l2[ndx2,:2].T)x1n = dot(inv(K),x1)
x2n = dot(inv(K),x2)# 使用RANSAC方法估计E
model = sfm.RansacModel()
E, inliers = sfm.F_from_ransac(x1n, x2n, model)# 计算照相机矩阵
P1 = array([[1,0,0,0], [0,1,0,0], [0,0,1,0]])
P2 = sfm.compute_P_from_essential(E)# 选取点在照相机前的解
ind = 0
maxres = 0
for i in range(4):# 三角剖分正确点,并计算每个照相机的深度X = sfm.triangulate(x1n[:,inliers],x2n[:,inliers],P1,P2[i])d1 = dot(P1,X)[2]d2 = dot(P2[i],X)[2]if sum(d1>0)+sum(d2>0) > maxres:maxres = sum(d1>0)+sum(d2>0)ind = iinfront = (d1>0) & (d2>0)# 三角剖分正确点,并移除不在所有照相机前面的点X = sfm.triangulate(x1n[:,inliers],x2n[:,inliers],P1,P2[ind])X = X[:,infront]# 绘制三维图像
fig = figure()
ax = fig.gca(projection='3d')
ax.plot(-X[0], X[1], X[2], 'k.')
axis('off')# 绘制X的投影 import camera
# 绘制三维点
cam1 = camera.Camera(P1)
cam2 = camera.Camera(P2[ind])
x1p = cam1.project(X)
x2p = cam2.project(X)# 反K归一化
x1p = dot(K, x1p)
x2p = dot(K, x2p)
figure()
imshow(im1)
gray()
plot(x1p[0], x1p[1], 'o')
plot(x1[0], x1[1], 'r.')
axis('off')
figure()
imshow(im2)
gray()
plot(x2p[0], x2p[1], 'o')
plot(x2[0], x2[1], 'r.')
axis('off')
show()

3 多视图的扩展示例

多视图重建有一些步骤和进一步的扩展,下面提供关于一些有关内容的介绍。

1)多视图
当我们有同一场景的多个视图时,三维重建会变得更加准确,包括更多的细节信息。因为基本矩阵只和一对视图相关,所以该过程带有很多图像,和之前的处理有些不同。
对于视频序列, 可是使用时序关系,在连续的帧对中匹配特征。相对方位需要从每个帧对增量地加入下一个帧对。同时可以使用跟踪有效地找到对应点。
对于静止的图像, 一个办法是找到一个中央参考视图,然后计算与之有关的所有其他照相机矩阵。另一个办法是计算一个图像对的照相机矩阵和三维重建,然后增量地加入新的图像和三维点。另外,还有一些方法可以同时由三个视图计算三维重建和照相机位置。

2)光束法平差
恢复出的点的位置和由估计的基础矩阵计算出的照相机矩阵都存在误差。在多个视图的计算中,这些误差会进一步累积。因此,多视图重建的最后一步,通常是通过优化三维点的位置和照相机参数来减少二次投影误差 。 该过程称为光束法平差。

3)自标定
在未标定照相机的情况中,有时可以从图像特征来计算标定矩阵。 该过程称为自标定。根据在照相机标定矩阵参数上做出的假设,以及可用的图像数据的类型(特征匹配、平行线、平面等),根据不同的自标定算法来进行标定。

这篇关于python计算机视觉编程第五章——多视图几何的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1134835

相关文章

python: 多模块(.py)中全局变量的导入

文章目录 global关键字可变类型和不可变类型数据的内存地址单模块(单个py文件)的全局变量示例总结 多模块(多个py文件)的全局变量from x import x导入全局变量示例 import x导入全局变量示例 总结 global关键字 global 的作用范围是模块(.py)级别: 当你在一个模块(文件)中使用 global 声明变量时,这个变量只在该模块的全局命名空

Linux 网络编程 --- 应用层

一、自定义协议和序列化反序列化 代码: 序列化反序列化实现网络版本计算器 二、HTTP协议 1、谈两个简单的预备知识 https://www.baidu.com/ --- 域名 --- 域名解析 --- IP地址 http的端口号为80端口,https的端口号为443 url为统一资源定位符。CSDNhttps://mp.csdn.net/mp_blog/creation/editor

【Python编程】Linux创建虚拟环境并配置与notebook相连接

1.创建 使用 venv 创建虚拟环境。例如,在当前目录下创建一个名为 myenv 的虚拟环境: python3 -m venv myenv 2.激活 激活虚拟环境使其成为当前终端会话的活动环境。运行: source myenv/bin/activate 3.与notebook连接 在虚拟环境中,使用 pip 安装 Jupyter 和 ipykernel: pip instal

【机器学习】高斯过程的基本概念和应用领域以及在python中的实例

引言 高斯过程(Gaussian Process,简称GP)是一种概率模型,用于描述一组随机变量的联合概率分布,其中任何一个有限维度的子集都具有高斯分布 文章目录 引言一、高斯过程1.1 基本定义1.1.1 随机过程1.1.2 高斯分布 1.2 高斯过程的特性1.2.1 联合高斯性1.2.2 均值函数1.2.3 协方差函数(或核函数) 1.3 核函数1.4 高斯过程回归(Gauss

uva 10387 Billiard(简单几何)

题意是一个球从矩形的中点出发,告诉你小球与矩形两条边的碰撞次数与小球回到原点的时间,求小球出发时的角度和小球的速度。 简单的几何问题,小球每与竖边碰撞一次,向右扩展一个相同的矩形;每与横边碰撞一次,向上扩展一个相同的矩形。 可以发现,扩展矩形的路径和在当前矩形中的每一段路径相同,当小球回到出发点时,一条直线的路径刚好经过最后一个扩展矩形的中心点。 最后扩展的路径和横边竖边恰好组成一个直

poj 1113 凸包+简单几何计算

题意: 给N个平面上的点,现在要在离点外L米处建城墙,使得城墙把所有点都包含进去且城墙的长度最短。 解析: 韬哥出的某次训练赛上A出的第一道计算几何,算是大水题吧。 用convexhull算法把凸包求出来,然后加加减减就A了。 计算见下图: 好久没玩画图了啊好开心。 代码: #include <iostream>#include <cstdio>#inclu

uva 1342 欧拉定理(计算几何模板)

题意: 给几个点,把这几个点用直线连起来,求这些直线把平面分成了几个。 解析: 欧拉定理: 顶点数 + 面数 - 边数= 2。 代码: #include <iostream>#include <cstdio>#include <cstdlib>#include <algorithm>#include <cstring>#include <cmath>#inc

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学

XTU 1237 计算几何

题面: Magic Triangle Problem Description: Huangriq is a respectful acmer in ACM team of XTU because he brought the best place in regional contest in history of XTU. Huangriq works in a big compa

计算机毕业设计 大学志愿填报系统 Java+SpringBoot+Vue 前后端分离 文档报告 代码讲解 安装调试

🍊作者:计算机编程-吉哥 🍊简介:专业从事JavaWeb程序开发,微信小程序开发,定制化项目、 源码、代码讲解、文档撰写、ppt制作。做自己喜欢的事,生活就是快乐的。 🍊心愿:点赞 👍 收藏 ⭐评论 📝 🍅 文末获取源码联系 👇🏻 精彩专栏推荐订阅 👇🏻 不然下次找不到哟~Java毕业设计项目~热门选题推荐《1000套》 目录 1.技术选型 2.开发工具 3.功能