![](/img/trans.png)
[英]Efficiently create adjacency matrix from network graph (vice versa) Python NetworkX
[英]Pose from Fundamental matrix and vice versa
我使用opencv的findFundamentalMat計算了兩台攝像機之間的基本矩陣。 然后我繪制圖像中的極線。 我得到類似的東西:
現在,我試圖從基本矩陣中獲得姿勢,首先計算基本矩陣,然后使用Hartley和Zissserman方法。
K2=np.mat(self.calibration.getCameraMatrix(1))
K1=np.mat(self.calibration.getCameraMatrix(0))
E=K2.T*np.mat(F)*K1
w,u,vt = cv2.SVDecomp(np.mat(E))
if np.linalg.det(u) < 0:
u *= -1.0
if np.linalg.det(vt) < 0:
vt *= -1.0
#Find R and T from Hartley & Zisserman
W=np.mat([[0,-1,0],[1,0,0],[0,0,1]],dtype=float)
R = np.mat(u) * W * np.mat(vt)
t = u[:,2] #u3 normalized.
為了檢查一切,直到這里是正確的,我重新計算E和F並再次繪制極線。
S=np.mat([[0,-T[2],T[1]],[T[2],0,-T[0]],[-T[1],T[0],0]])
E=S*np.mat(R)
F=np.linalg.inv(K2).T*np.mat(E)*np.linalg.inv(K1)
但令人驚訝的是,線條已經移動,他們不再通過積分了。 我做錯了什么嗎?
它可能與這個問題有關http://answers.opencv.org/question/18565/pose-estimation-produces-wrong-translation-vector/ ,但他們沒有提供解決方案
我得到的矩陣是:
Original F=[[ -1.62627683e-07 -1.38840952e-05 8.03246936e-03]
[ 5.83844799e-06 -1.37528349e-06 -3.26617731e-03]
[ -1.15902181e-02 1.23440336e-02 1.00000000e+00]]
E=[[-0.09648757 -8.23748182 -0.6192747 ]
[ 3.46397143 -0.81596046 0.29628779]
[-6.32856235 -0.03006961 -0.65380443]]
R=[[ 9.99558381e-01 -2.72074658e-02 1.19497464e-02]
[ 3.50795548e-04 4.12906861e-01 9.10773189e-01]
[ -2.97139627e-02 -9.10366782e-01 4.12734058e-01]]
T=[[-8.82445166e-02]
[8.73204425e-01]
[4.79298380e-01]]
Recomputed E=
[[-0.0261145 -0.99284189 -0.07613091]
[ 0.47646462 -0.09337537 0.04214901]
[-0.87284976 -0.01267909 -0.09080531]]
Recomputed F=
[[ -4.40154169e-08 -1.67341327e-06 9.85070691e-04]
[ 8.03070680e-07 -1.57382143e-07 -4.67389530e-04]
[ -1.57927152e-03 1.47100268e-03 2.56606003e-01]]
第一個F按比例定義,因此如果您要比較返回的F和從E計算的F矩陣,則需要將它們標准化以確保兩者的比例相同。 因此,您需要規范化第二個計算F.
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.