[英]How to get some useful sensor data in ARKit?
我从文档中了解到 ARKit 是CoreMotion
plus AVFoundation
,但是我如何获取传感器数据:
从 ARKit 提供的 CoreMotion 而不是设置 Core Motion 的侦听器?
ARKit (及其新的卫星RealityKit )不仅包含来自CoreMotion
和AVFoundation
框架的一些类、方法和属性,还包含来自以下的一些类、方法和属性:
但是,您无法从 iPhone 传感器获取任何原始数据(Apple 不允许),但您绝对可以使用允许访问的数据。
例如:
1.一个像素缓冲区,包含相机捕获的图像:
let pixelBuffer: CVPixelBuffer? = sceneView.session.currentFrame?.capturedImage
2. position 和相机在世界坐标空间中的方向( simd_float4x4 ):
let cameraMatrix = (sceneView.session.currentFrame?.camera.transform)!
3. ARKit 如何根据真实世界的设备运动构建场景坐标系的选项:
ARConfiguration.WorldAlignment.gravityAndHeading
ARConfiguration.WorldAlignment.gravity
ARConfiguration.WorldAlignment.camera
唉,但你无法从 IMU 获得纯加速度数据。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.