![](/img/trans.png)
[英]Can video core library send the live H264/AAC iOS Camera stream to Wowza using RTMP
[英]How to capture iOS camera and publish RTMP live stream?
我已經完成了iOS上的RTMP播放器,使用FFmpeg解碼flv1
視頻和speex
音頻。 現在,我想捕獲iOS攝像機並解碼H.264視頻和AAC音頻,然后將視頻和音頻流發布到RTMP服務器(Red5服務器)作為以前使用的播放器程序。 我知道我應該重新編譯FFmpeg,添加libx264
和libaacplus
以支持iOS視頻和音頻解碼。 但是,然后如何發布RTMP實時流? 使用RTMP_Write()
嗎? RTMP_SendPacket()
嗎? 請告訴我一些想法或解決方案,或者很慷慨地向我展示一些代碼。 謝謝!
FFmpeg通過內部協議(“ rtmp”)和外部庫(“ librtmp”)支持rtmp輸入和輸出。 我知道選擇內部版本或librtmp版本而不是其他版本的唯一原因是對特定服務器的支持-即,對於給定的服務器,一個版本可能比另一個版本更好。
在FFmpeg中,RTMP視頻被混合為flv,只要您的輸出路徑/ uri以“ rtmp:// ...”開頭,它就應該對您有用。 當然,沒有什么阻止您直接使用librtmp的-但是為什么要麻煩呢?
配置您的服務器以接受流,並知道在哪個端點上查看流,這可能只是自己的小冒險。
(免責聲明:我現在幾乎正在做此事,所以我知道這是可能且直接的。)
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.