[英]Get point cloud from kinect's depth data
我是Kinect的新手。我想知道如何從kinect的深度數據中獲取點雲。 我嘗試獲取深度像素並根據深度為附近的像素着色。 現在,我的要求是基於深度數據獲取3d地圖。 所以,我想首先我需要點雲。 我應該如何進行?
我從未使用過kinect,但考慮到輸入是帶有深度數據的2D像素。 您需要獲取像素並將其取消投影到世界空間(假設您已經設置了虛擬相機,視圖和投影矩陣)。 假設您有足夠的深度,就會給您實際的Z世界位置。 請記住,這些3D點將僅是kinect傳感器的可見點。
如果要將3D點雲轉換為3D網格,則需要找到這些點的凸包,然后對其進行三角剖分。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.