簡體   English   中英

如何捕獲iOS攝像機並發布RTMP實時流?

[英]How to capture iOS camera and publish RTMP live stream?

我已經完成了iOS上的RTMP播放器,使用FFmpeg解碼flv1視頻和speex音頻。 現在,我想捕獲iOS攝像機並解碼H.264視頻和AAC音頻,然后將視頻和音頻流發布到RTMP服務器(Red5服務器)作為以前使用的播放器程序。 我知道我應該重新編譯FFmpeg,添加libx264libaacplus以支持iOS視頻和音頻解碼。 但是,然后如何發布RTMP實時流? 使用RTMP_Write()嗎? RTMP_SendPacket()嗎? 請告訴我一些想法或解決方案,或者很慷慨地向我展示一些代碼。 謝謝!

參考: 使用librtmp捕獲攝像機並發布視頻

FFmpeg通過內部協議(“ rtmp”)和外部庫(“ librtmp”)支持rtmp輸入和輸出。 我知道選擇內部版本或librtmp版本而不是其他版本的唯一原因是對特定服務器的支持-即,對於給定的服務器,一個版本可能比另一個版本更好。

在FFmpeg中,RTMP視頻被混合為flv,只要您的輸出路徑/ uri以“ rtmp:// ...”開頭,它就應該對您有用。 當然,沒有什么阻止您直接使用librtmp的-但是為什么要麻煩呢?

配置您的服務器以接受流,並知道在哪個端點上查看流,這可能只是自己的小冒險。

(免責聲明:我現在幾乎正在做此事,所以我知道這是可能且直接的。)

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM