我正在使用 mediapipe 开发 iOS 应用程序,现在我需要向 mediapipe 输入图像数据,但 mediapipe 只接受 32BGRA CVPixelBuffer。 如何将 UIImage 转换为 32BGRA CVPixelBuffer? 我正在使用这段代码: 但我会在 media ...
我正在使用 mediapipe 开发 iOS 应用程序,现在我需要向 mediapipe 输入图像数据,但 mediapipe 只接受 32BGRA CVPixelBuffer。 如何将 UIImage 转换为 32BGRA CVPixelBuffer? 我正在使用这段代码: 但我会在 media ...
我想知道是否有可能在将UIView转换为CVPixelBuffer时获得更好的性能。 我的应用程序首先将UIView的序列转换为UIImage ,然后转换为CVPixelBuffer ,如下所示。 最后,我将所有这些图像/帧记录到AVAssetWriterInput并将结果保存为电影文件。 先感谢 ...
我有一个 stream 的 IYUV (4:2:0) 格式的视频,并尝试将其转换为CVPixelBufferRef ,然后转换为CMSampleBufferRef并在AVSampleBufferDisplayLayer中播放(需要AVPictureInPictureController )。 我已经 ...
我有一张图像,在传递给 CoreML 到 640x640 正方形之前应该进行预处理,并调整大小并保存纵横比(检查图像)。 我发现了很多关于使用vImageScale_*调整大小的有用链接,但没有发现任何类似于向调整大小的图像添加彩色填充的内容。 我知道 Vision 有scaleFit 选项,但最终 ...
我正在尝试从 CVPixelBuffer 中获取 5 种主要/主要颜色,并且我需要它尽可能快速和高效。 我已经尝试使用 CIFilter 进行像素化并调整它的大小,并且只是通过像素数据,但它仍然很慢。 另外,我应该如何管理与线程管理有关的任务流? 任何有关使用 CVPixelBuffer 的提 ...
在 swift 的 CVImageBuffer/CVPixelBuffer 上是否有标准的高效方式来编辑/绘制? 我在网上找到的所有视频编辑演示都是在屏幕上覆盖绘图(矩形或文本),而不是直接编辑 CVPixelBuffer。 更新我尝试使用 CGContext 但保存的视频不显示上下文绘图priv ...
现在我正在使用 iOS 的深度相机,因为我想测量帧中某些点到相机的距离。 我在我的相机解决方案中完成了所有必要的设置,现在我手中有两个CVPixelBufferRef - 一个带有像素数据,一个带有深度数据。 这就是我从AVCaptureDataOutputSynchronizer获取两个缓冲区的方 ...
我正在使用下面的方法将绘图添加到像素缓冲区,然后将它的 append 添加到AVAssetWriterInputPixelBufferAdaptor 。 它适用于我的 Mac mini(macOS 12 beta 7),但drawingHandler在我的 MacBook(macOS 11.5.2 ...
我的目标是从 CVImageBuffer(相机流)中提取 300x300 像素帧并将其转换为 UInt 字节数组。 从技术上讲,数组大小应为 90,000。 但是,我获得了更大的价值。 任何帮助都会非常感谢发现错误。 将图像缓冲区转换为 UIImage 的方法 将图像数据转换为 UInt8 数 ...
我想将 Vision 2D 手部跟踪输入与 ARKit > People Occlusion > Body Segmentation With Depth 结合使用,利用 LiDAR,获得索引尖端的 3D 世界坐标。 我正在做的步骤: 1 - Vision works提供的指尖的2D屏 ...
编辑:我解决了这个问题,但改写我的问题 - 是否可以创建 CVPixelBuffer 以匹配CGImage? 例如,我希望每个组件有 16 位而不是 8 位。 正如标题所说。 例如,当我 NSLog 我的缓冲区时,它每行有 4544 个字节。 但是当我 NSLog 实际的 CGImage 时它有 9 ...
正如标题所说,我在使用 AVAssetWriter 和 memory 时遇到了一些问题。 关于我的环境/要求的一些说明: 我没有使用 ARC,但如果有一种方法可以简单地使用它并让它全部工作,我完全赞成。 不过,我的尝试并没有产生任何影响。 我将使用它的环境需要尽快最小化/发布 memory。 Ob ...
我正在将 ARKit 4 (+MetalKit) 与新的 iPhone 设备一起使用,并且我正在尝试访问深度数据(来自 LiDAR)并将其保存为深度 map 以及实际的 RGB 图像。 虽然我看过很多演示,但没有显示实际可视化深度 map 的代码。 我制作了一个按钮,这是与它一起使用的代码: 因此, ...
我正在尝试将相机图像从ARFrame保存到文件中。 图像以 CVPixelBuffer 的形式给出。 我有以下代码,它产生的图像纵横比错误。 我尝试了不同的方法,包括 CIFilter 来缩小图像,但仍然无法保存正确的图片。 相机分辨率为 1920w x 1440h。 我想从提供的像素缓冲区创建一 ...
我正在使用MPSImageLanczosScale使用Metal框架缩放图像纹理(从CVPixelBufferRef启动)。 问题是MPSImageLanczosScale仅从 10.13 开始可用。 但我的应用程序从 10.11 开始支持。 我不能停止支持较低的操作系统版本,因为仍有许多用户使用 ...
我从 TrueDepth 相机获取深度数据,并将其转换为灰度图像。 (我意识到我可以将AVDepthData传递给CIImage构造函数,但是,出于测试目的,我想确保我的数组被正确填充,因此手动构造图像将确保是这种情况。) 我注意到当我尝试转换灰度图像时,我得到了奇怪的结果。 即图像出现在上半部分 ...
我有一个 IOSurface 支持的 CVPixelBuffer,它正在以 30fps 的速度从外部源更新。 我想在 NSView 中渲染图像数据的预览——对我来说最好的方法是什么? 我可以直接在视图上设置 CALayer 的 .contents ,但这只会在我的视图第一次更新时更新(或者,如果我 ...
我正在尝试使用来自 Apple Vision 框架的VNDetectRectangleRequest来自动抓取卡片的图片。 但是,当我转换点以绘制矩形时,它是畸形的,并且不应该遵循矩形。 我一直在密切关注这篇文章 一个主要区别是我将我的 CameraCaptureVC 嵌入到另一个 ViewCont ...
我有一个AVCaptureVideoDataOutput产生CMSampleBuffer实例传递给我的AVCaptureVideoDataOutputSampleBufferDelegate函数。 我想有效地将像素缓冲区转换为CGImage实例,以便在我的应用程序的其他地方使用。 我必须小心不 ...
我有一个tflite model 并且我想使用 ARKit session 捕获的图像运行 model。 它显示源像素格式无效。 我能够使用 AVCapture session 运行tflite model: ...