[英]Calibrating Webcam using Python and OpenCV Error
所有這些都是新手,我正在嘗試按照本指南進行網絡攝像頭校准,並使用下面的代碼。 我收到以下錯誤..
OpenCV錯誤:在collectCalibrationData中斷言失敗(ni> 0 && ni == ni1),文件/build/buildd/opencv-2.4.8+dfsg1/modules/calib3d/src/calibration.cpp,第3193行
cv2.error:/build/buildd/opencv-2.4.8+dfsg1/modules/calib3d/src/calibration.cpp:3193:錯誤:(-215)ni> 0 && ni == ni1 in function collectCalibrationData
有人可以解釋這個錯誤是什么以及如何解決它?
(底部完全錯誤)
import numpy as np
import cv2
import glob
criteria = (cv2.TERM_CRITERIA_EPS + cv2.TERM_CRITERIA_MAX_ITER, 30, 0.001)
# Arrays to store object points and image points from all the images.
objpoints = [] # 3d point in real world
imgpoints = [] # 2d points in image plane.
images = glob.glob('*.png')
objp = np.zeros((6*7,3), np.float32)
objp[:,:2] = np.mgrid[0:7,0:6].T.reshape(-1,2)
objp = objp * 22
for fname in images:
img = cv2.imread(fname)
gray = cv2.cvtColor(img,cv2.COLOR_BGR2GRAY)
ret = False
# Find the chess board corners
ret, corners = cv2.findChessboardCorners(gray, (6,9))
# If found, add object points, image points (after refining them)
if ret == True:
objpoints.append(objp)
cv2.cornerSubPix(gray, corners, (11,11), (-1,-1), criteria)
imgpoints.append(corners)
# Draw and display the corners
cv2.drawChessboardCorners(img, (6,9), corners, ret)
cv2.imshow('img',img)
cv2.waitKey(0)
cv2.waitKey(0)
for i in range (1,5):
cv2.waitKey(1)
cv2.destroyAllWindows()
cv2.waitKey(1)
ret, mtx, dist, rvecs, tvecs = cv2.calibrateCamera(objpoints, imgpoints, gray.shape[::-1],None,None)
OpenCV錯誤:在collectCalibrationData中斷言失敗(ni> 0 && ni == ni1),文件/build/buildd/opencv-2.4.8+dfsg1/modules/calib3d/src/calibration.cpp,第3193行追溯(最近一次調用最后一次) ):文件“”,第1行,在文件“/usr/lib/python2.7/dist-packages/spyderlib/widgets/externalshell/sitecustomize.py”,第540行,在runfile execfile(filename,namespace)文件“/ home / students / Test / test.py“,第49行,在ret,mtx,dist,rvecs,tvecs = cv2.calibrateCamera(objpoints,imgpoints,gray.shape [:: - 1],None,None)cv2.error :/build/buildd/opencv-2.4.8+dfsg1/modules/calib3d/src/calibration.cpp:3193:錯誤:(-215)ni> 0 && ni == ni1 in function collectCalibrationData
我有同樣的問題,你的主要錯誤(我知道因為我自己做的)是你改變了棋盤大小(默認情況下是7x6,你的是6x9),但你忽略了改變初始化的大小代碼頂部的代碼
objp = np.zeros((6*7,3), np.float32)
objp[:,:2] = np.mgrid[0:7,0:6].T.reshape(-1,2)
要使這個工作具有多個棋盤尺寸,您可以調整代碼,如下所示:
# checkerboard Dimensions
cbrow = 5
cbcol = 7
# prepare object points, like (0,0,0), (1,0,0), (2,0,0) ....,(6,5,0)
objp = np.zeros((cbrow * cbcol, 3), np.float32)
objp[:, :2] = np.mgrid[0:cbcol, 0:cbrow].T.reshape(-1, 2)
.
.
.
ret, corners = cv2.findChessboardCorners(gray, (cbcol, cbrow), None)
深入研究源代碼:
for( i = 0; i < nimages; i++, j += ni )
{
Mat objpt = objectPoints.getMat(i);
Mat imgpt1 = imagePoints1.getMat(i);
ni = objpt.checkVector(3, CV_32F);
int ni1 = imgpt1.checkVector(2, CV_32F);
CV_Assert( ni > 0 && ni == ni1 );
...
這: Assertion failed (ni > 0 && ni == ni1)
表示對象點數組的長度為零,或者對象和圖像數組的大小不同。
需要明確的是: calibrateCamera()
不僅要提供一個對象點數組和另一個圖像點數組,還要提供一組圖像和對象點數組 。 如果您只有一個圖像(因此只有一對圖像和對象點),您可以將這些數組包裝在一組方括號中:
obj = [[x, y, z], [x1, y1, z1]] # wrong
img = [[x, y], [x1, y1]] # wrong
obj = [[[x, y, z], [x1, y1, z1]]] # right
img = [[[x, y], [x1, y1]]] # right
回想一下我自己第一次看這個教程時,看起來你唯一改變的是文件擴展名(從jpg到png),這表明你正在使用自己的資源 - 因此你的問題可能在於您正在使用的圖像數量。 我認為您使用的圖像/圖像可能沒有成功選擇棋盤格 - 因此您的對象點陣列永遠不會添加任何內容。 嘗試在運行calibrateCamera
之前打印出陣列,也可以使用/samples/cpp
提供的棋盤圖像
我有同樣的問題,經過一些研究后我在答案中找到了問題。
我決定改變objp
的形狀:
objp = objp.reshape(-1,1,3)
另外我還有另外一個問題: findChessboardCorners
找到的角findChessboardCorners
可能小於7 * 6(圖案大小)所以我只保留了找到3D點數的角點:
corners2 = cv2.cornerSubPix(image=gray, corners=corners,
winSize=(11,11), zeroZone=(-1,-1),
criteria=(cv2.TERM_CRITERIA_EPS +
cv2.TERM_CRITERIA_MAX_ITER, 30, 0.001))
imgpoints.append(corners2)
objpoints.append(objp[0:corners2.shape[0]])
之后代碼工作正常:D
編輯 :我意識到角落的數量可能小於圖案大小,如果不使用retval
(True或False),我們檢查corners
不是None
。
所以我發現錯誤是由於imgpoints是一個長數組,它應該與objpoints一樣長。 我發現如果你使用一個圖像,你可以直接將校准函數中的imgpoints替換為角點。 希望能幫助任何有同樣錯誤的人。
(在此過程中進行了一些更改,我仍在嘗試修復它以使用多個圖像)
import numpy as np
import cv2
import glob
# termination criteria
criteria = (cv2.TERM_CRITERIA_EPS + cv2.TERM_CRITERIA_MAX_ITER, 30, 0.001)
# Arrays to store object points and image points from all the images.
imgpoints = [] # 2d points in image plane.
images = glob.glob('*.png')
for fname in images:
img = cv2.imread(fname)
gray = cv2.cvtColor(img,cv2.COLOR_BGR2GRAY)
ret = False
# Find the chess board c orners
ret, corners = cv2.findChessboardCorners(gray, (6,9))
# If found, add object points, image points (after refining them)
if ret == True:
cv2.cornerSubPix(gray, corners, (11,11), (-1,-1), criteria)
imgpoints.append(corners)
# Draw and display the corners
cv2.drawChessboardCorners(img, (6,9), corners, ret)
cv2.imshow('img',img)
cv2.waitKey(0)
cv2.waitKey(0)
for i in range (1,5):
cv2.waitKey(1)
cv2.destroyAllWindows()
cv2.waitKey(1)
imgpoints = np.array(imgpoints,'float32')
print len(corners), len(pattern_points)
pattern_size = (9, 6)
pattern_points = np.zeros( (np.prod(pattern_size), 3), np.float32)
pattern_points[:, :2] = np.indices(pattern_size).T.reshape(-1, 2).astype(np.float32)
pattern_points = np.array(pattern_points,dtype=np.float32)
ret, matrix, dist_coef, rvecs, tvecs = cv2.calibrateCamera([pattern_points], [corners], gray.shape[::-1], flags=cv2.CALIB_USE_INTRINSIC_GUESS)
謝謝@ s-low! 您的源代碼非常有用。
初學者的另一個可能的錯誤是關於objp的數據類型 。
當我分配了objp = np.zeros((6*7,3), np.float32)
,我忽略了數據類型賦值。 在python 2.7中,默認的dtype
是float64
。 因此,當代碼調用函數' cv2.calibrateCamera
'時,會出現類似的cv2.calibrateCamera
錯誤:
OpenCV Error: Assertion failed (ni >= 0) in collectCalibrationData, file /Users/jhelmus/anaconda/conda-bld/work/opencv-2.4.8/modules/calib3d/src/calibration.cpp, line 3169
所以,只是源代碼ni = objpt.checkVector(3, CV_32F)
給了我一個線索,即objp的矩陣必須分配給float32
。
如果您按照以下示例操作:
那么,問題很容易解決,那是因為功能:
Corners2 = cv2.cornerSubPix(灰色,角落,(11,11),( - 1,1),標准)
在當前版本的opencv中返回Null
這個也是:
Img = cv2.drawChessboardCorners(img,(7.6),corners2,ret)
所以你要做的就是改變那些代碼行,這是我改編的代碼:
from webcam import Webcam
import cv2
from datetime import datetime
import numpy as np
webcam = Webcam()
webcam.start()
criteria = (cv2.TERM_CRITERIA_EPS + cv2.TERM_CRITERIA_MAX_ITER, 30, 0.001)
objp = np.zeros((6*9,3), np.float32)
objp[:,:2] = np.mgrid[0:9,0:6].T.reshape(-1,2)
objpoints = []
imgpoints = []
i = 0
while i < 10:
image = webcam.get_current_frame()
gray = cv2.cvtColor(image,cv2.COLOR_BGR2GRAY)
ret, corners = cv2.findChessboardCorners(gray, (9,6), None)
print ret
if ret == True:
cv2.cornerSubPix(gray,corners,(11,11),(-1,-1),criteria)
imgpoints.append(corners)
objpoints.append(objp)
cv2.drawChessboardCorners(image, (9,6), corners,ret)
i += 1
cv2.imshow('grid', image)
cv2.waitKey(1000)
cv2.destroyAllWindows()
ret, mtx, dist, rvecs, tvecs = cv2.calibrateCamera(objpoints, imgpoints, gray.shape[::-1],None,None)
np.savez("webcam_calibration_ouput_2", ret=ret, mtx=mtx, dist=dist, rvecs=rvecs, tvecs=tvecs)
網絡攝像頭課程:
import cv2
from threading import Thread
class Webcam:
def __init__(self):
self.video_capture = cv2.VideoCapture(0)
self.current_frame = self.video_capture.read()[1]
# create thread for capturing images
def start(self):
Thread(target=self._update_frame, args=()).start()
def _update_frame(self):
while(True):
self.current_frame = self.video_capture.read()[1]
# get the current frame
def get_current_frame(self):
return self.current_frame
請注意,數字6和9可能會根據國際象棋的尺寸而改變,我國際象棋的dimmensión是10x7。
當我輸入我自己的jpg圖像時,我遇到了同樣的問題,用我的移動攝像頭自拍。 最初,當我剛剛運行您共享的鏈接中可用的代碼時,我發現rect
總是設置為FALSE
。 后來我發現我輸入了棋盤的確切尺寸,這使得代碼無法識別棋盤圖案。 我的意思是我使用了大小為8X6
的棋盤並在代碼中輸入了8X6
,比如說如下所示
objp = np.zeros((6*8,3), np.float32)
objp[:,:2] = np.mgrid[0:8,0:6].T.reshape(-1,2)
因為它無法識別模式,當我將行和列維度減少1(或多於一個,在我的情況下,它的7X5
)然后繁榮時,我得到了打印圖像作為輸出的參數。
objp = np.zeros(((5*7,3), np.float32)
objp[:,:2] = np.mgrid[0:7,0:5].T.reshape(-1,2)
此外,如果您使用此文檔用於OpenCV 3.0 beta doc ,則可能需要糾正一個小的更改,您可以通過此處發現其中的差異
我遇到了同樣的問題導致我斷言失敗(ni> 0 && ni == ni1); 我認為應該學習ni和ni1的真正含義,這在第一個答案中已經說過了。 對象點和圖像點的大小應完全相同。 無論墊子的數量還是墊子的大小。 對我來說,我的問題是我有5個墊子用於圖像點和對象點,而對於墊子的大小,圖像點是36 * 2而對象點是48 * 3。 所以我說他們應該是完全相同的,除了一個是point2f而另一個是point3f。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.