[英]How to get some useful sensor data in ARKit?
我從文檔中了解到 ARKit 是CoreMotion
plus AVFoundation
,但是我如何獲取傳感器數據:
從 ARKit 提供的 CoreMotion 而不是設置 Core Motion 的偵聽器?
ARKit (及其新的衛星RealityKit )不僅包含來自CoreMotion
和AVFoundation
框架的一些類、方法和屬性,還包含來自以下的一些類、方法和屬性:
但是,您無法從 iPhone 傳感器獲取任何原始數據(Apple 不允許),但您絕對可以使用允許訪問的數據。
例如:
1.一個像素緩沖區,包含相機捕獲的圖像:
let pixelBuffer: CVPixelBuffer? = sceneView.session.currentFrame?.capturedImage
2. position 和相機在世界坐標空間中的方向( simd_float4x4 ):
let cameraMatrix = (sceneView.session.currentFrame?.camera.transform)!
3. ARKit 如何根據真實世界的設備運動構建場景坐標系的選項:
ARConfiguration.WorldAlignment.gravityAndHeading
ARConfiguration.WorldAlignment.gravity
ARConfiguration.WorldAlignment.camera
唉,但你無法從 IMU 獲得純加速度數據。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.