簡體   English   中英

iOS在播放視頻時處理音頻流

[英]iOS process audio stream while playing video

我正在嘗試為iOS創建一個視頻播放器,但有一些額外的音軌閱讀。 我一直在檢查MPVideoPlayerController,以及AV基金會的AVPlayer,但它有點模糊。 我想要做的是播放視頻(來自本地.mp4),當電影播放時獲取當前音頻緩沖區/幀 ,所以我可以做一些計算和其他(不是視頻/音頻相關)動作在當前播放的音頻上。 這意味着視頻應該繼續播放,其音頻軌道,但我也想要實時原始音頻數據進行計算(例如:獲取特定頻率的振幅)。

有沒有人有這樣做的例子或提示? 當然,我查看了Apple的AV Foundation庫文檔,但對我來說還不夠清楚。

經過一段非常長時間的谷歌搜索,我發現了一篇描述MTAudioProcessingTap的博客文章。 在iOS 6.0中引入,它完美地解決了我的問題。

方法/博客文章可以在這里找到: http//chritto.wordpress.com/2013/01/07/processing-avplayers-audio-with-mtaudioprocessingtap/

我希望它現在可以幫助其他任何人.......唯一突然出現的事情谷歌搜索(有很多不同的術語)是我自己的帖子。 只要你不知道MTAudioProcessingTap存在,你就不知道谷歌如何:-)

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM