簡體   English   中英

從深度傳感器到OpenGL的z緩沖區的數據以實現遮擋

[英]Data from Depth Sensor to OpenGL's z-buffer to achieve occlusion

我想使用來自深度傳感器(例如kinect或Realsense RGB-D Dev工具包)的數據來了解有關增強現實應用程序中遮擋的更多信息。

我讀到應該做的是將渲染對象的z緩沖區值與傳感器的深度圖值進行比較,並以某種方式掩蓋這些值,以便僅看到離用戶更近的像素。有任何資源或開放源代碼可以這樣做或可以幫助我理解它嗎?

而且,我希望我的手(被檢測為斑點)始終遮住虛擬對象。難道沒有更容易的選擇嗎?

您可以將深度數據作為紋理上傳,並將其綁定為渲染目標的深度緩沖區。

這需要使投影矩陣的近平面和遠平面與深度傳感器的最小值和最大值匹配。

如果渲染目標與深度數據的大小不同,則可以在片段着色器中對其進行采樣並discard; 什么時候會被遮擋。

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM