cost 108 ms
如何在将 UIView 转换为 CVPixelBuffer 时获得更好的性能? - How to achieve better performance in converting UIView to CVPixelBuffer?

我想知道是否有可能在将UIView转换为CVPixelBuffer时获得更好的性能。 我的应用程序首先将UIView的序列转换为UIImage ,然后转换为CVPixelBuffer ,如下所示。 最后,我将所有这些图像/帧记录到AVAssetWriterInput并将结果保存为电影文件。 先感谢 ...

将 CVPixelBuffer 调整为方形图像并保存纵横比 - Fit CVPixelBuffer into a square image with resizing and aspect ratio saving

我有一张图像,在传递给 CoreML 到 640x640 正方形之前应该进行预处理,并调整大小并保存纵横比(检查图像)。 我发现了很多关于使用vImageScale_*调整大小的有用链接,但没有发现任何类似于向调整大小的图像添加彩色填充的内容。 我知道 Vision 有scaleFit 选项,但最终 ...

从 CVPixelBuffer 中获取 5 种主要颜色最有效和快速 - Get 5 main colors from CVPixelBuffer MOST efficiently and quickly

我正在尝试从 CVPixelBuffer 中获取 5 种主要/主要颜色,并且我需要它尽可能快速和高效。 我已经尝试使用 CIFilter 进行像素化并调整它的大小,并且只是通过像素数据,但它仍然很慢。 另外,我应该如何管理与线程管理有关的任务流? 任何有关使用 CVPixelBuffer 的提 ...

在 iOS 中绘制/编辑 CVPixelBuffer 的正确方法 Swift - Correct way to draw/edit a CVPixelBuffer in Swift in iOS

在 swift 的 CVImageBuffer/CVPixelBuffer 上是否有标准的高效方式来编辑/绘制? 我在网上找到的所有视频编辑演示都是在屏幕上覆盖绘图(矩形或文本),而不是直接编辑 CVPixelBuffer。 更新我尝试使用 CGContext 但保存的视频不显示上下文绘图priv ...

CVPixelBufferRef:Video Buffer 和 Depth Buffer 方向不同 - CVPixelBufferRef: Video Buffer and Depth Buffer have different orientations

现在我正在使用 iOS 的深度相机,因为我想测量帧中某些点到相机的距离。 我在我的相机解决方案中完成了所有必要的设置,现在我手中有两个CVPixelBufferRef - 一个带有像素数据,一个带有深度数据。 这就是我从AVCaptureDataOutputSynchronizer获取两个缓冲区的方 ...

减少 AVAssetWriter 的 memory 使用 - Reduce memory usage of AVAssetWriter

正如标题所说,我在使用 AVAssetWriter 和 memory 时遇到了一些问题。 关于我的环境/要求的一些说明: 我没有使用 ARC,但如果有一种方法可以简单地使用它并让它全部工作,我完全赞成。 不过,我的尝试并没有产生任何影响。 我将使用它的环境需要尽快最小化/发布 memory。 Ob ...

使用 UIImageWriteToSavedPhotosAlbum 保存深度数据 - Save the depth data with UIImageWriteToSavedPhotosAlbum

我正在将 ARKit 4 (+MetalKit) 与新的 iPhone 设备一起使用,并且我正在尝试访问深度数据(来自 LiDAR)并将其保存为深度 map 以及实际的 RGB 图像。 虽然我看过很多演示,但没有显示实际可视化深度 map 的代码。 我制作了一个按钮,这是与它一起使用的代码: 因此, ...

iOS ARKit 如何将 ARFrame.capturedImage 保存到文件中? - iOS ARKit how to save ARFrame .capturedImage to file?

我正在尝试将相机图像从ARFrame保存到文件中。 图像以 CVPixelBuffer 的形式给出。 我有以下代码,它产生的图像纵横比错误。 我尝试了不同的方法,包括 CIFilter 来缩小图像,但仍然无法保存正确的图片。 相机分辨率为 1920w x 1440h。 我想从提供的像素缓冲区创建一 ...

将 TrueDepth 数据转换为灰度图像会产生失真的图像 - Converting TrueDepth data to grayscale image produces distorted image

我从 TrueDepth 相机获取深度数据,并将其转换为灰度图像。 (我意识到我可以将AVDepthData传递给CIImage构造函数,但是,出于测试目的,我想确保我的数组被正确填充,因此手动构造图像将确保是这种情况。) 我注意到当我尝试转换灰度图像时,我得到了奇怪的结果。 即图像出现在上半部分 ...

如何使用 CVPixelBuffer/IOSurface 更新 CALayer? - How do I update a CALayer with a CVPixelBuffer/IOSurface?

我有一个 IOSurface 支持的 CVPixelBuffer,它正在以 30fps 的速度从外部源更新。 我想在 NSView 中渲染图像数据的预览——对我来说最好的方法是什么? 我可以直接在视图上设置 CALayer 的 .contents ,但这只会在我的视图第一次更新时更新(或者,如果我 ...

当用作子 VC 时,来自 VNDetectRectangleRequest 的边界框的大小不正确 - Bounding Box from VNDetectRectangleRequest is not correct size when used as child VC

我正在尝试使用来自 Apple Vision 框架的VNDetectRectangleRequest来自动抓取卡片的图片。 但是,当我转换点以绘制矩形时,它是畸形的,并且不应该遵循矩形。 我一直在密切关注这篇文章 一个主要区别是我将我的 CameraCaptureVC 嵌入到另一个 ViewCont ...

我是否必须锁定从 AVCaptureVideoDataOutput 生成的 CVPixelBuffer - Do I have to lock a CVPixelBuffer produced from AVCaptureVideoDataOutput

我有一个AVCaptureVideoDataOutput产生CMSampleBuffer实例传递给我的AVCaptureVideoDataOutputSampleBufferDelegate函数。 我想有效地将​​像素缓冲区转换为CGImage实例,以便在我的应用程序的其他地方使用。 我必须小心不 ...


 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM