[英]Transforming 2D pixel coordinates to 3D Azure Kinect
我正在使用深度相機檢測矩形。 在這一點上,我正在努力使用 NFOV 深度相機生成所選像素的准確 3d 坐標。 I have tested this by selecting 2 points on a testing board, transforming them using Depth 2d to Color 3d Kinect-SDK C# Wrapper function, calculating the distance between received coordinates, and measuring distance between selected real-world points (918mm). 在 2.7 米距離處,圖像中心出現 2 厘米的誤差,而在角落,誤差達到 6 厘米。
變換函數不應該糾正失真嗎? 我是否錯過了接收准確數據的關鍵步驟? 這可能是別的東西嗎?
謝謝您的幫助!
添加來自 Git 問題的響應:
幾點:
最后,深度相機相對於 colot 相機傾斜 6 度應該無關緊要。 相機校准內在函數針對每個相機的失真進行校准,而外在因素則針對相機力學進行校准。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.