cost 232 ms
CVPixelBufferRef:Video Buffer 和 Depth Buffer 方向不同

[英]CVPixelBufferRef: Video Buffer and Depth Buffer have different orientations

現在我正在使用 iOS 的深度相機,因為我想測量幀中某些點到相機的距離。 我在我的相機解決方案中完成了所有必要的設置,現在我手中有兩個CVPixelBufferRef - 一個帶有像素數據,一個帶有深度數據。 這就是我從AVCaptureDataOutputSynchronizer獲取兩個緩沖區的方 ...

將 TrueDepth 數據轉換為灰度圖像會產生失真的圖像

[英]Converting TrueDepth data to grayscale image produces distorted image

我從 TrueDepth 相機獲取深度數據,並將其轉換為灰度圖像。 (我意識到我可以將AVDepthData傳遞給CIImage構造函數,但是,出於測試目的,我想確保我的數組被正確填充,因此手動構造圖像將確保是這種情況。) 我注意到當我嘗試轉換灰度圖像時,我得到了奇怪的結果。 即圖像出現在上半部分 ...

為什么我在嘗試運行 Orbbec Astra 時收到此錯誤消息

[英]Why am I getting this error message whilst trying to run my Orbbec Astra

我的錯誤消息的屏幕截圖我一直在嘗試測試 Orbbec Astra stereo S 和嵌入式 S 的 DK。我嘗試運行示例查看器來測試深度相機的質量,但每次我這樣做時都會收到此錯誤消息。 代碼本身是直接從 Orbbec 網站下載的,因此肯定不會有任何錯誤。 ...

致命錯誤 - 此設備不支持面部跟蹤

[英]Fatal error – Face tracking is not supported on this device

我想在我的應用程序上啟用 ARFaceTrackingConfiguration,但我遇到了問題。 我正在使用具有 Apple A10 Fusion-64 位芯片的 iPhone 7,但仍然出現該致命錯誤。 你能幫我解決這個問題嗎? 我在 info.plist 上啟用了權限,我在 ARFaceTra ...

為什么 ARFaceAnchor 有負 Z 位置?

[英]Why does ARFaceAnchor have negative Z position?

我正在使用 ARKit 的ARFaceTrackingConfiguration和ARConfiguration.WorldAlignment.camera對齊,但我發現文檔(表面上)並沒有反映現實; 根據下面的文檔摘錄,我希望面錨的transform以右手坐標系表示。 但是,當我嘗試移動頭部時, ...

iOS OpenGLES上DisparityFloat16像素格式的紋理采樣值

[英]sampler value of texture from DisparityFloat16 pixel format on iOS OpenGLES

我想在我的OpenGLES項目上使用depthDataMap作為iPhoneX真實深度相機的紋理。 已經下載了一些Swift樣本,似乎depthMap可以在Metal上創建並采樣為浮動紋理。 但是在OpenGLES上,從深度緩沖區創建深度紋理的唯一方法是, 樣本值與從Disparit ...

如何從AVDepthData制作3D模型?

[英]How to make a 3D model from AVDepthData?

我對TrueDepth Camera的數據處理問題很感興趣。 有必要獲取人臉的數據,建立臉部的3D模型並將該模型保存在.obj文件中。 由於在3D模型中需要存在人的眼睛和牙齒,因此ARKit / SceneKit不適合,因為ARKit / SceneKit不會用數據填充這些區域。 ...

AVDepthData可以返回8位以上的數據嗎?

[英]Can AVDepthData be returned with more than 8-bit data?

我正在使用iPhone X上的前置攝像頭來捕獲深度數據(使用IR真實深度攝像頭)。 我能夠很輕松地從拍攝的照片中提取depthData ,但是即使我相信我要求的是32位精度,該數據似乎也僅限於每個數據點8位值。 見下文: 上面代碼段中的depthData對象僅包含8位值。 AV ...

是否可以在iPhoneX上同時運行ARWorldTracking Session和ARFaceTracking Session?

[英]Is it possible to run ARWorldTracking Session and ARFaceTracking Session at the same time on iPhoneX?

我正在嘗試在iPhoneX上同時運行ARWorldTracking Session和ARFaceTracking Session,但第一個運行會話在后一個會話開始運行后停止。 是不可能實現的? 這是我的ViewController.swift代碼。 ...

保存TrueDepth相機的深度圖像

[英]Save depth images from TrueDepth camera

我正在嘗試從iPhoneX TrueDepth相機保存深度圖像。 使用AVCamPhotoFilter示例代碼,我能夠在手機屏幕上實時查看轉換為灰度格式的深度。 我無法弄清楚如何以原始(16位或更多)格式保存深度圖像序列。 我有depthData這是一個實例AVDepthData 。 ...

如何使用iPhone X faceID數據

[英]How to use the iPhone X faceID data

是否可以使用iphone X faceID數據創建用戶面部的3D模型? 如果是,請您告訴我應該去哪里? 我無法找到與此有關的東西。 我在WWDC上找到了有關真實深度和ARKit的視頻,但不確定是否會有所幫助。 編輯:我剛剛看了WWDC 視頻 ,它說ARKit提供了詳細的3D幾何圖形。 ...


 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM