cost 303 ms
captureOutput 中的 Dispatch_async:(AVCaptureOutput*)captureOutput didOutputSampleBuffer,样本缓冲区上的 EXC_BAD_ACCESS 错误 - Dispatch_async in captureOutput:(AVCaptureOutput*)captureOutput didOutputSampleBuffer, EXC_BAD_ACCESS error on sample buffer

我正在尝试从 captureOutput:(AVCaptureOutput*)captureOutput didOutputSampleBuffer 获取样本缓冲区,对其进行处理,然后将其 append 发送到 AVAssetWriter。 整个代码都可以工作,但是它变得非常慢,而且我在旧设备上的 ...

如何为 MLkit 面部检测实现 CMSampleBuffer? - How to implement a CMSampleBuffer for MLkit facial detection?

基本上,我正在尝试创建一个简单的实时面部识别 IOS 应用程序,该应用程序可以流式传输用户的面部并告诉他们他们的眼睛是否闭合。 我在这里关注谷歌教程 - https://firebase.google.com/docs/ml-kit/ios/detect-faces 。 我在第 2 步(运行人脸检测 ...

iOS 当我尝试将缓冲区样本转换为 UIImage 时广播扩展随机崩溃 - iOS Broadcast extension crash randomly when I try to convert buffer samples to UIImage

我正在尝试开发广播扩展来进行屏幕录制。 我的路径是从扩展中获取 CMSampleBufferRef,检查类型是否为视频转换为 UIImage,然后通过 MMWormhole 与容器应用共享。 到目前为止,我可以做到。 但是扩展在样本缓冲区到 UIImage 的转换过程中随机崩溃。 我不知道为什么。 ...

我们如何使用AVSampleBufferDisplayLayer渲染CMSampleBufferRef? - How can we use AVSampleBufferDisplayLayer to render CMSampleBufferRef?

我有这个委托方法 这给了我sampleBuffer 。 现在我需要知道如何使用AVSampleBufferDisplayLayer来渲染我的sampleBuffer。 我知道我们必须使用enqueueSampleBuffer - 但我是iOS的新手,所以我们怎么做呢? 我不 ...

如何将 CMSampleBuffer 保存到来自 didOutputSampleBuffer 的 CFArrayRef(或其他容器) - How could save the CMSampleBuffer to a CFArrayRef (or other container) that from didOutputSampleBuffer

我试图从 didOutputSampleBuffer 中保存 CMSampleBuffer,作为 iOS 开发人员文档,我像打击一样将它复制到 CFArrayRetainCallBack 中: 我使用如下数组: 有人有更好的方法来做到这一点或任何建议? 非常感谢。 ...

通过AVCaptureSession视频输出了解Metal的用法 - Understanding Metal usage with AVCaptureSession video output

我试图了解使用Metal处理视频输出( CMPixelBuffer )的正确方法是什么。 据我了解,有MTKView 。 视频输出中的每个CMPixelBuffer被分配给Metal Texture 。 那么最终的预览是来自MTKView ? 当我在屏幕上看到最终结果时,是: ...

CMSampleBufferRef kCMSampleBufferAttachmentKey_TrimDurationAtStart崩溃 - CMSampleBufferRef kCMSampleBufferAttachmentKey_TrimDurationAtStart crash

这困扰了我一段时间。 我有视频转换将视频转换为“.mp4”格式。 但是有些视频会发生崩溃但不是全部。 这是崩溃日志 这是我的代码: 这是导致崩溃的部分 我一直在寻找,似乎我需要将' kCMSampleBufferAttachmentKey_TrimDuratio ...

如何创建像照片应用程序的定时视频? - How to create a time lapse video like the photos app?

我正在寻找一种在运行iOS 9的iPhone上创建长时间推移视频的方法,并希望得到一些关于如何开始的指示。 理想情况下,我会将1小时的素材压缩成1分钟,因此缩放系数为60.我从60帧中取出一帧并将它们拼接在一起,对吧? 我有一个使用AVOoundation捕获图像的项目使用capture ...

编写静默CMSampleBuffer会导致崩溃:CrashIfClientProvidedBogusAudioBufferList - Writing silent CMSampleBuffer causes crash: CrashIfClientProvidedBogusAudioBufferList

我正在使用AVAssetwriter录制视频/音频,并希望能够编写无声采样缓冲区。 我在CoreAudio方面经验不足,因此在提出可行的解决方案时遇到了麻烦。 这个想法是当音频设备断开连接时继续记录视频,直到重新连接为止。 问题是,AVFoundation会以某种方式将音频推到最前面, ...

调整captureStillImageBracketAsynchronouslyFromConnection:withSettingsArray:completionHandler提供的CMSampleBufferRef的大小: - Resizing CMSampleBufferRef provided by captureStillImageBracketAsynchronouslyFromConnection:withSettingsArray:completionHandler:

在我正在使用的应用程序中,我们正在捕获需要具有4:3纵横比的照片,以最大程度地捕获我们捕获的视野。 到目前为止,我们一直使用AVCaptureSessionPreset640x480预设,但是现在我们需要更大的分辨率。 据我所知,仅有的另外两种4:3格式是2592x1936和3264x2 ...


 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM