我正在尝试从 captureOutput:(AVCaptureOutput*)captureOutput didOutputSampleBuffer 获取样本缓冲区,对其进行处理,然后将其 append 发送到 AVAssetWriter。 整个代码都可以工作,但是它变得非常慢,而且我在旧设备上的 ...
我正在尝试从 captureOutput:(AVCaptureOutput*)captureOutput didOutputSampleBuffer 获取样本缓冲区,对其进行处理,然后将其 append 发送到 AVAssetWriter。 整个代码都可以工作,但是它变得非常慢,而且我在旧设备上的 ...
基本上,我正在尝试创建一个简单的实时面部识别 IOS 应用程序,该应用程序可以流式传输用户的面部并告诉他们他们的眼睛是否闭合。 我在这里关注谷歌教程 - https://firebase.google.com/docs/ml-kit/ios/detect-faces 。 我在第 2 步(运行人脸检测 ...
我正在尝试开发广播扩展来进行屏幕录制。 我的路径是从扩展中获取 CMSampleBufferRef,检查类型是否为视频转换为 UIImage,然后通过 MMWormhole 与容器应用共享。 到目前为止,我可以做到。 但是扩展在样本缓冲区到 UIImage 的转换过程中随机崩溃。 我不知道为什么。 ...
我有这个委托方法 这给了我sampleBuffer 。 现在我需要知道如何使用AVSampleBufferDisplayLayer来渲染我的sampleBuffer。 我知道我们必须使用enqueueSampleBuffer - 但我是iOS的新手,所以我们怎么做呢? 我不 ...
我正在尝试使用startCaptureWithHandler从重播包中获取每个帧。 startCaptureWithHandler返回CMSampleBufferRef,我需要将其转换为图像。 我使用此方法转换为UIImage,但始终为白色。 谁能告诉我即时通讯出了什么问题? ...
我正在尝试在AVCaptureAudioDataOutputSampleBufferDelegate中创建由 captureOutput 返回的 CMSampleBuffer 的副本。 我遇到的问题是我的帧来自委托方法captureOutput:didOutputSampleBuffer:from ...
我正在编写代码以解压缩本机附件B H.264流,并且正在经历解析该流,从SPS / PPS NALU创建CMVideoFormatDescription以及包装从该流中提取的其他NALU的过程。在CMSampleBuffers中。 我在如何处理解码器的CMBlockBuffer和CMSam ...
我试图从 didOutputSampleBuffer 中保存 CMSampleBuffer,作为 iOS 开发人员文档,我像打击一样将它复制到 CFArrayRetainCallBack 中: 我使用如下数组: 有人有更好的方法来做到这一点或任何建议? 非常感谢。 ...
我试图从CMSampleBufferRef中检索CVPixelBufferRef,以便改变CVPixelBufferRef以动态覆盖水印。 我正在使用CMSampleBufferGetImageBuffer(sampleBuffer)来实现这一点。 我正在打印返回的CVPixelBuff ...
我试图了解使用Metal处理视频输出( CMPixelBuffer )的正确方法是什么。 据我了解,有MTKView 。 视频输出中的每个CMPixelBuffer被分配给Metal Texture 。 那么最终的预览是来自MTKView ? 当我在屏幕上看到最终结果时,是: ...
我尝试编写 ios 相机,并 从苹果中获取了部分代码: 我需要从程序中的任何位置调用此函数。 但是因为它需要创建一个(CMSampleBufferRef)的对象类型。 怎么做? 我试着写一些类似的东西: 但这是错误的方式。 ...
这困扰了我一段时间。 我有视频转换将视频转换为“.mp4”格式。 但是有些视频会发生崩溃但不是全部。 这是崩溃日志 这是我的代码: 这是导致崩溃的部分 我一直在寻找,似乎我需要将' kCMSampleBufferAttachmentKey_TrimDuratio ...
我正在寻找一种在运行iOS 9的iPhone上创建长时间推移视频的方法,并希望得到一些关于如何开始的指示。 理想情况下,我会将1小时的素材压缩成1分钟,因此缩放系数为60.我从60帧中取出一帧并将它们拼接在一起,对吧? 我有一个使用AVOoundation捕获图像的项目使用capture ...
我正在使用AVAssetwriter录制视频/音频,并希望能够编写无声采样缓冲区。 我在CoreAudio方面经验不足,因此在提出可行的解决方案时遇到了麻烦。 这个想法是当音频设备断开连接时继续记录视频,直到重新连接为止。 问题是,AVFoundation会以某种方式将音频推到最前面, ...
有没有办法在iOS中通过AVFoundation获得方形视频输出? 我使用 OpenGL 处理视频的每一帧( CMSampleBuffer )。 每一帧被旋转,所以我需要裁剪和旋转CMSampleBuffer 。 但我不知道该怎么做,所以我相信有一种方法可以通过在AVCaptureVideoDat ...
我有一个实时流,并且CMSampleBufferGetSampleTimingInfo给出了视频的CMTime(value=0, timescale=0)持续CMTime(value=0, timescale=0) 。 对于音频,我一次获得了1024个样本,但是CMSampleBuffer ...
我正在使用AVAssetReader/AVAssetWriter在iOS上转换我的视频。 我的问题是:通过实时转换显示当前帧预览的最有效方法是什么。 我正在考虑将CMSampleBufferRef转换为UIImage,然后应用到UIImageView。 有没有更好的方法? ...
我正在使用captureOutput:didOutputSampleBuffer:fromConnection:来跟踪帧。 对于我的用例,我只需要存储最后一帧并在应用程序进入后台时使用它。 这是我的代码示例: 问题是,在某些情况下,我从imageFromSampleBuffer中得到了这个崩溃: 崩 ...
在我正在使用的应用程序中,我们正在捕获需要具有4:3纵横比的照片,以最大程度地捕获我们捕获的视野。 到目前为止,我们一直使用AVCaptureSessionPreset640x480预设,但是现在我们需要更大的分辨率。 据我所知,仅有的另外两种4:3格式是2592x1936和3264x2 ...
我每隔N个视频帧从CMSampleBufferRef视频缓冲区获取UIImage : XCode和Instruments检测到内存泄漏,但是我无法摆脱它。 我照常发布了CGImageRef和CMSampleBufferRef: [更新]我放入AVCapture输出回调以获取sa ...