簡體   English   中英

從kinect的深度數據獲取點雲

[英]Get point cloud from kinect's depth data

我是Kinect的新手。我想知道如何從kinect的深度數據中獲取點雲。 我嘗試獲取深度像素並根據深度為附近的像素着色。 現在,我的要求是基於深度數據獲取3d地圖。 所以,我想首先我需要點雲。 我應該如何進行?

我從未使用過kinect,但考慮到輸入是帶有深度數據的2D像素。 您需要獲取像素並將其取消投影到世界空間(假設您已經設置了虛擬相機,視圖和投影矩陣)。 假設您有足夠的深度,就會給您實際的Z世界位置。 請記住,這些3D點將僅是kinect傳感器的可見點。

如果要將3D點雲轉換為3D網格,則需要找到這些點的凸包,然后對其進行三角剖分。

我會看到有關獲取身體點雲的問題 特別是davidbates回答,因為它描述了如何精確地使用深度數據創建效果。 如果你想要的代碼,我會看到這個網站 ,我以前用來創建點雲。

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM