cost 331 ms
Direct3D 11:為什么深度緩沖不起作用,立方體繼續顯示不正確?

[英]Direct3D 11: Why does the depth buffer not work and the cube continues to display incorrectly?

我想畫一個 3D 的立方體,但是顯示不正確。 即Z緩沖(深度緩沖)不起作用。 深度緩沖區的初始化發生在 InitDepthBuffer 方法中,我從 Microsoft 的手冊中復制了該方法。 InitDepthBuffer方法在下面的InitD3D方法中被調用。 為什么“立方體”顯示不正確以及 ...

D3D11 Multiple Vertex Buffer 2D Depth sorting with depth buffer 深度緩沖

[英]D3D11 Multiple Vertex Buffer 2D Depth sorting with depth buffer

我正在嘗試在 D3D11 中創建一些 2D UI 繪圖。 我正在嘗試盡可能減少繪制調用以提高性能。 以前,我將盡可能多的紋理打包發送到一個繪制調用,它們是通過 else if 訪問的。 事實證明,在某些情況下,將許多紋理(尤其是大紋理)發送到單個着色器會破壞性能,這與我試圖實現的目標正好相反。 目標 ...

金屬深度2d的最大值<float> /Depth32Float 使用 SceneKit 時</float>

[英]Maximum value of metal depth2d<float>/Depth32Float when using SceneKit

我正在使用帶有 SceneKit 的 SCNTechnique 來實現我自己的多通道渲染。 我有 1 個 DRAW_SCENE 通道輸出到單獨的顏色和深度目標,然后有第二個 DRAW_QUAD 通道使用這些目標並輸出到顏色。 一切都很好,我唯一的問題是深度目標的值范圍是多少? 我想將它們標准化為 0 ...

實現 integer 1/z 深度緩沖區

[英]Implementing integer 1/z depth buffer

我正在嘗試調整此答案中的代碼以使用 1/z 深度緩沖區,這是我的嘗試 不幸的是,我沒有得到我想要的 output 它應該看起來像這樣(我使用浮點運算和幼稚的 z-buffer 實現) 作為參考,這里是 OpenGL 的 output: 我不確定可能是什么問題。 也許我需要減小 1/z 的步長? ...

為什么我的深度測試在 PyOpenGL 中不起作用

[英]Why is my depth testing not working in PyOpenGL

我對 3D 圖形很陌生,所以我只是在學習:-D。 我想創建一個立方體作為我的第一個項目。 我選擇了 PyOpenGl 並遇到了以下問題:深度測試對我不起作用。 我在互聯網上搜索了教程,但沒有任何幫助我找到代碼中的錯誤。 誰能給我建議? 這是我的代碼: 這是我得到的結果圖像: image_of_my_ ...

OpenTK 讀取深度緩沖區到數組

[英]OpenTK read depth buffer to array

我正在嘗試使用 C# 中的 openTK 讀取深度緩沖區並將其存儲到數組中。 到目前為止,這是我的代碼: 那么它不會產生任何錯誤,但它也不起作用。 輸出是一個數組 (myPixels),其中所有值都為 0。 那么如何使用PixelPackBuffer讀取openTK中的深度緩沖區呢? 謝謝 ...

我可以從 JavaScript 中的 WebGL 深度紋理中讀取單個像素值嗎?

[英]Can I read single pixel value from WebGL depth texture in JavaScript?

簡而言之我想從 JavaScript 中的 WebGL 2 深度紋理中讀取單個像素值。 這是可能嗎? 場景我在 WebGL 2 中渲染一個場景。渲染器被賦予了一個深度紋理,它將深度緩沖區寫入其中。 這個深度紋理用於后期處理着色器等,所以我們可以使用它。 但是,我需要讀取 JavaScript 中的 ...

是否可以在深度紋理上使用 texSubImage2D?

[英]Is it possible to use texSubImage2D on a depth texture?

我正在關注這個關於 2D 陰影映射的教程,並且我已經讓它在 WebGL 中工作。 現在,我正在尋找一種方法來重新計算深度紋理中的單行,而無需清除整個紋理並重新計算每個燈光的值。 我的深度紋理是這樣制作的常規WebGLTexture : 為此,我想到了做這樣的事情: 不幸的是,它似乎不起作用。 我知 ...

Vulkan 實例化渲染奇怪的深度緩沖區行為

[英]Vulkan Instanced Rendering Weird Depth Buffer Behaviour

我正在渲染一個包含 8000 個立方體、1 個猴子和 1 個平面的單個網格測試 object。 我檢查了法線和纏繞順序。 對於網格來說,一切似乎都是正確的。 如果我渲染單個實例,深度緩沖區將正常工作。 如果我在即時數字增加深度緩沖區無法正常工作時使用實例化進行渲染。 屏幕下方是該網格的第 100 個 ...

處理透視陰影貼圖深度值的非線性

[英]Dealing with the non-linearity of perspective shadowmap depth values

我已經在 GLSL 中通過將視圖從燈光渲染到深度紋理來實現陰影貼圖,然后在第二遍比較這些值時從相機視圖渲染我的幾何圖形。 在縮寫代碼中,第二個(主)渲染通道的頂點着色器是: 和片段着色器我在陰影紋理中查找這個shadowcoord texel,看看光線是否看到相同的東西(點亮),或者更接近的東西(陰 ...

將 Mujoco 深度圖像轉換為 Open3D 點雲

[英]Convert Mujoco Depth Image to Open3D Point Cloud

我正在嘗試從在 MuJoCo 中渲染的深度圖像生成 Open3D 點雲。 我的代碼在下面,將 MuJoCo 依賴項注釋掉,並在下面鏈接渲染深度圖像: 我渲染並立即保存的圖像在此處可用並在此處顯示。 距離相機 0.5 米處有一架飛機,一個機器人 arm 關節筆直地豎立在框架的中心。 最大實際深度 z ...

紋理采樣的自適應深度偏差

[英]Adaptive depth bias for texture sampling

我有一個復雜的 3D 場景,我的深度緩沖區中的值范圍從近距離,幾厘米到幾公里。 對於一些不同的效果,我使用深度偏差、偏移來規避一些偽影(SSAO、Shadow)。 即使在通過比較當前剝離和前一次剝離的深度進行深度剝離的過程中,也會出現一些問題。 我已經解決了近距離拍攝的這些問題,但是當片段足夠遠時, ...

非單調深度緩沖區; OpenGL 中的循環重疊

[英]Non-monotonic depth buffer; cyclical overlapping in OpenGL

是否可以實現自定義深度緩沖區值,以便我可以實現非傳遞排序? 例如 我想這將在片段着色器或其他東西中實現,只有根據上述模式在現有像素之上時才寫入像素。 請注意,由於它是不可傳遞的,因此不可能為每個 colors 分配單個數值並保留順序。 換句話說,我想要一個自定義 z 緩沖區,其中每個元素都是非傳遞類 ...

Kinect V2 UWP 如何計算與用戶的距離

[英]Kinect V2 UWP How to calculate distance from user

我正在嘗試計算從一個人到 UWP c# 中 Kinect 傳感器 v2 的距離。 在 WPF 中,我得到了這個 在使用深度框架的 UWP 中,我能夠獲得最小和最大可靠距離,但我不確定如何獲得用戶與 Kinect 傳感器的距離。 有人可以幫忙嗎? 編輯: 我在深度圖像中找到了面部/對象的 x 和 y ...

OES_depth_texture 和 glReadPixels

[英]OES_depth_texture and glReadPixels

open gl es 2.0 擴展OES_depth_texture允許將深度信息寫入帶有附加紋理的幀緩沖區。 然而,規范沒有描述 glReadPixels 的使用和這樣的擴展。 據我所知, glReadPixels 不適用於這樣的幀緩沖區(我已經嘗試過,並且得到了無效的操作錯誤)。 我在這個假 ...

將深度渲染為從幀緩沖區到顯示 window 的紋理

[英]Render depth as texture from framebuffer to displaying window

我是 OpenGL 的新手。 我想使用幀緩沖區讀取並保存渲染場景中的所有深度值。 我設法將其設置為附加到深度組件的幀緩沖區。 但是,當我將深度紋理渲染到默認幀緩沖區(顯示窗口)時,它只顯示白色,即使我對深度值進行了線性化(教程從https://learnopengl.com/ 開始)。 當我從默認幀 ...

Metal 是否支持 glDepthRange() 之類的東西?

[英]Does Metal support anything like glDepthRange()?

我正在編寫一些繪制天空盒的金屬代碼。 我希望頂點着色器的深度 output 始終為 1,但當然,我也希望將頂點繪制在正確的位置。 在 OpenGL 中,您可以使用 glDepthRange glDepthRange(1,1)在這種情況下將深度始終寫為 1.0。 我在 Metal 中沒有看到類似的東 ...

Three.js 后處理:如何保持多通道的深度紋理?

[英]Three.js post-processing: How to keep depth texture for multiple passes?

我正在使用需要多個后處理通道的 three.js 渲染場景。 這些步驟中的大多數都需要深度緩沖區。 我的計划是首先渲染所有可見對象以獲得顏色和深度,然后使用 2 個交替讀取和寫入幀緩沖區的幀緩沖區渲染所有后處理通道。 通行證只是示例: 渲染對象 -&gt; FB0 DistortionPass, ...

設置 gl_FragDepth 會導致延遲嗎?

[英]Setting gl_FragDepth causes lag?

我設計了一組非常基本的深度着色器,用於將深度渲染到我的陰影貼圖深度紋理。 這是我使用的深度片段着色器的代碼: 這段代碼不多,它只是簡單地計算一個片段和光源之間的距離,通過將其除以光的遠平面距離來歸一化該值,並將 gl_FragDepth 設置為結果。 代碼工作沒有任何錯誤。 我在場景中只有兩個 ...


 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM