繁体   English   中英

如何捕获iOS摄像机并发布RTMP实时流?

[英]How to capture iOS camera and publish RTMP live stream?

我已经完成了iOS上的RTMP播放器,使用FFmpeg解码flv1视频和speex音频。 现在,我想捕获iOS摄像机并解码H.264视频和AAC音频,然后将视频和音频流发布到RTMP服务器(Red5服务器)作为以前使用的播放器程序。 我知道我应该重新编译FFmpeg,添加libx264libaacplus以支持iOS视频和音频解码。 但是,然后如何发布RTMP实时流? 使用RTMP_Write()吗? RTMP_SendPacket()吗? 请告诉我一些想法或解决方案,或者很慷慨地向我展示一些代码。 谢谢!

参考: 使用librtmp捕获摄像机并发布视频

FFmpeg通过内部协议(“ rtmp”)和外部库(“ librtmp”)支持rtmp输入和输出。 我知道选择内部版本或librtmp版本而不是其他版本的唯一原因是对特定服务器的支持-即,对于给定的服务器,一个版本可能比另一个版本更好。

在FFmpeg中,RTMP视频被混合为flv,只要您的输出路径/ uri以“ rtmp:// ...”开头,它就应该对您有用。 当然,没有什么阻止您直接使用librtmp的-但是为什么要麻烦呢?

配置您的服务器以接受流,并知道在哪个端点上查看流,这可能只是自己的小冒险。

(免责声明:我现在几乎正在做此事,所以我知道这是可能且直接的。)

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM