![](/img/trans.png)
[英]LLSimpleCamera : AVAssetWriterInput appendSampleBuffer crashing
[英]appendSampleBuffer with an audio AVAssetWriterInput “leaks” memory until endSessionAtSourceTime
我有一个奇怪的内存“泄漏”与AVAssetWriterInput appendSampleBuffer
。 我正在同时编写视频和音频,所以我有一个带有两个输入的AVAssetWriter
,一个用于视频,一个用于音频:
self.videoWriter = [[[AVAssetWriter alloc] initWithURL:[self.currentVideo currentVideoClipLocalURL]
fileType:AVFileTypeMPEG4
error:&error] autorelease];
...
self.videoWriterInput = [AVAssetWriterInput assetWriterInputWithMediaType:AVMediaTypeVideo
outputSettings:videoSettings];
self.videoWriterInput.expectsMediaDataInRealTime = YES;
[self.videoWriter addInput:self.videoWriterInput];
...
self.audioWriterInput = [AVAssetWriterInput assetWriterInputWithMediaType:AVMediaTypeAudio
outputSettings:audioSettings];
self.audioWriterInput.expectsMediaDataInRealTime = YES;
[self.videoWriter addInput:self.audioWriterInput];
我开始写作,表面上一切正常。 视频和音频被写入并对齐等。但是,我将我的代码通过分配工具并注意到以下内容:
音频字节被保留在内存中,我稍后会证明。 这就是内存的增长。 音频字节仅在我调用[self.videoWriter endSessionAtSourceTime:...]
后释放,您将其视为内存使用量的急剧下降。 这是我的音频编写代码,它作为一个块分派到串行队列中:
@autoreleasepool
{
// The objects that will hold the audio data
CMSampleBufferRef sampleBuffer;
CMBlockBufferRef blockBuffer1;
CMBlockBufferRef blockBuffer2;
size_t nbytes = numSamples * asbd_.mBytesPerPacket;
OSStatus status = noErr;
status = CMBlockBufferCreateWithMemoryBlock(kCFAllocatorDefault,
data,
nbytes,
kCFAllocatorNull,
NULL,
0,
nbytes,
kCMBlockBufferAssureMemoryNowFlag,
&blockBuffer1);
if (status != noErr)
{
NLog(@"CMBlockBufferCreateWithMemoryBlock error at buffer 1");
return;
}
status = CMBlockBufferCreateContiguous(kCFAllocatorDefault,
blockBuffer1,
kCFAllocatorDefault,
NULL,
0,
nbytes,
kCMBlockBufferAssureMemoryNowFlag | kCMBlockBufferAlwaysCopyDataFlag,
&blockBuffer2);
if (status != noErr)
{
NSLog(@"CMBlockBufferCreateWithMemoryBlock error at buffer 2");
CFRelease(blockBuffer1);
return;
}
// Finally, create the CMSampleBufferRef
status = CMAudioSampleBufferCreateWithPacketDescriptions(kCFAllocatorDefault,
blockBuffer2,
YES, // Yes data is ready
NULL, // No callback needed to make data ready
NULL,
audioFormatDescription_,
1,
timestamp,
NULL,
&sampleBuffer);
if (status != noErr)
{
NSLog(@"CMAudioSampleBufferCreateWithPacketDescriptions error.");
CFRelease(blockBuffer1);
CFRelease(blockBuffer2);
return;
}
if ([self.audioWriterInput isReadyForMoreMediaData])
{
if (![self.audioWriterInput appendSampleBuffer:sampleBuffer])
{
NSLog(@"Couldn't append audio sample buffer: %d", numAudioCallbacks_);
}
} else {
NSLog(@"AudioWriterInput isn't ready for more data.");
}
// One release per create
CFRelease(blockBuffer1);
CFRelease(blockBuffer2);
CFRelease(sampleBuffer);
}
如您所见,我每次创建都会释放每个缓冲区一次。 我已经将“泄漏”追溯到附加音频缓冲区的行:
[self.audioWriterInput appendSampleBuffer:sampleBuffer]
我通过注释掉该行向自己证明了这一点,之后我得到了以下“无泄漏”分配图(当然,尽管现在录制的视频现在没有音频):
我尝试了另一件事,即添加回appendSamplebuffer
行,而不是双重释放blockBuffer2
:
CFRelease(blockBuffer1);
CFRelease(blockBuffer2);
CFRelease(blockBuffer2); // Double release to test the hypothesis that appendSamplebuffer is retaining this
CFRelease(sampleBuffer);
这样做并没有导致双重释放,表明blockBuffer2
在那一点的保留计数是 2。这产生了相同的“无泄漏”分配图,除了当我调用[self.videoWriter endSessionAtSourceTime:...]
,我因双重释放而崩溃(表明self.videoWriter
试图释放其所有指向已传入的blockBuffer2
的指针)。
如果相反,我尝试以下操作:
CFRelease(blockBuffer1);
CFRelease(blockBuffer2);
CMSampleBufferInvalidate(sampleBuffer); // Invalidate sample buffer
CFRelease(sampleBuffer);
然后[self.audioWriterInput appendSampleBuffer:sampleBuffer]
和附加视频帧的调用在此后的每次调用中都开始失败。
所以我的结论是AVAssetWriter
或AVAssetWriterInput
会保留blockBuffer2
直到视频完成录制。 显然,如果视频录制时间足够长,这可能会导致实际内存问题。 难道我做错了什么?
编辑:我得到的音频字节是 PCM 格式,而我正在编写的视频格式是 MPEG4,该视频的音频格式是 MPEG4AAC。 视频编写器是否可能正在执行 PCM --> AAC 格式,这就是它被缓冲的原因?
由于您已经等待了一个月的答案,我会给您一个不太理想但可行的答案。
您可以使用 ExtendedAudioFile 函数编写单独的文件。 然后,您可以将视频和音频与 AVComposition 一起播放。 我认为如果您需要在录制结束时将它们合成,您可以使用 AVFoundation 将咖啡馆和视频合成在一起而无需重新编码。
这将使您开始运行,然后您可以在闲暇时解决内存泄漏。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.