[英]Live Video Stream on a Node.js Server
我一直在研究这个,但很沮丧,因为我觉得解决方案应该很简单,尽管我知道不会。 理想情况下,我只想使用 node 来托管服务器,webrtc getusermedia 在本地客户端上获取实时流,并使用 socket.io 之类的东西将流发送到服务器,然后服务器将流广播到远程客户; 好像它是一个简单的消息聊天应用程序。
再考虑一下,这种简单的方法似乎是不可能的,因为实时视频需要连续发送大量数据,这并不等同于在事件发生后发送单个消息甚至文件(按下发送按钮) .
然而,也许我错了,实时视频流应用程序可以遵循 node/socket.io 信使应用程序的相同结构吗? 您是否会发送从 getUserMedia 返回的媒体对象、blob、一些二进制数据(我已经尝试了所有这些,但可能不正确)。
理想的目标是应用尽可能少地使用额外的功能,尽可能少地安装 npm,尽可能少地安装额外的 javascript 库,或者不用担心编码/解码或 ICE 或 STUN 是什么鬼东西。 有什么办法可以做到,还是我要求太多?
理想客户
var socket = io();
var local = document.getElementById("local_video");
var remote = document.getElementById("remote_video");
// display local video
navigator.mediaDevices.getUserMedia({video: true, audio: true}).then(function(stream) {
local.src = window.URL.createObjectURL(stream);
socket.emit("stream", stream);
}).catch(function(err){console.log(err);});
// displays remote video
socket.on("stream", function(stream){
remote.src = window.URL.createObjectURL(stream);
});
理想服务器
var app = require("express")();
var http = require("http").Server(app);
var fs = require("fs");
var io = require("socket.io")(http);
app.get('/', onRequest);
http.listen(process.env.PORT || 3000, function() {
console.log('server started');
})
//404 response
function send404(response) {
response.writeHead(404, {"Content-Type" : "text/plain"});
response.write("Error 404: Page not found");
response.end();
}
function onRequest(request, response) {
if(request.method == 'GET' && request.url == '/') {
response.writeHead(200, {"Content-Type" : "text/html"});
fs.createReadStream("./index.html").pipe(response);
} else {
send404(response);
}
}
io.on('connection', function(socket) {
console.log("a user connected");
socket.on('stream', function(stream) {
socket.broadcast.emit("stream", stream);
});
socket.on('disconnect', function () {
console.log("user disconnected");
});
});
这是运行中的损坏应用程序: https : //nodejs-videochat.herokuapp.com/
这是github上的损坏代码: https : //github.com/joshydotpoo/nodejs-videochat
尽量清楚明确。 首先,您没有在这里使用WebRTC。 getUserMedia()是导航器WebAPI的一部分,您可以使用它从相机获取媒体流。
使用WebRTC意味着您正在使用ICE和STUN / TURN服务器进行信令。 您将使用主机服务器(节点)指定ICE配置,识别每个用户并提供相互呼叫的方式。
如果您想通过主机传输它,可能您应该以块的形式流式传输并设置自己的信令基础架构。 您可以将Stream API与套接字io一起使用来以块(数据包)的形式传输数据。 在这里看到Stream API(socket.io)
另外,您可以在这里查看WebRTC + Socket.io的实例: Socket.io | WebRTC视频聊天
您可以在此处找到更多信息: 将媒体流发送到主机服务器
我认为主题是关于Node Server以支持实时流媒体或视频聊天,它比您想象的要复杂得多,让我来说明一下。 Live Streaming和Video Chat都可以使用 WebRTC,但Live Streaming不需要使用 WebRTC。 两者都需要一些节点服务器来支持信令和流媒体。
如果您想将您的相机作为实时流发布,并转发给成千上万的玩家,这就是所谓的实时流媒体。 延迟不是很关键,一般3~10s就可以了。
如果你想互相交谈,使用你的相机,也可以转发给其他用户,这叫做视频聊天。 延迟非常敏感,必须<400ms,一般~200ms。
它们完全不同,让我们分别讨论它们。
直播的关键是跨平台(H5和手机),流畅无缓冲,快速启动切换流。 流拱形如下:
Publisher ---> Server/CDN ---> Player
让我们来谈谈播放器,HLS(LLHLS)是一个首要的交付协议,它被广泛使用并且在H5(PC和移动)和移动(iOS和Android)上运行良好。 唯一的问题是延迟大约5~10s,甚至更大。 因为它是基于文件的协议。
另一个低延迟(3~5s)协议是可以的,它是 HTTP-FLV,所有 PC-H5 的hls.js和ijkplayer 的移动设备都支持它,一些 CDN 也支持该协议。 唯一的问题是对mobile-H5不友好。
对于播放器,WebRTC 也可以播放流,它在 PC-H5 上运行良好,如 Chrome。 问题出在移动设备上,运行 WebRTC 本地播放器非常困难。 除了复杂性之外,您还需要一个信令服务器,用于交换SDP。
对于发布者来说,这很复杂,因为这取决于您的客户:
说到底,直播经济是基于C/C++的,FFmpeg/WebRTC/SRS是用C/C++写的,不过也有一些是nodejs的服务器,你可以通过nodejs rtmp
等协议找到。
延迟是视频聊天最重要的特性,因此您必须将 WebRTC 用于客户端,发布者和播放器。
视频聊天有不同的服务器:
正如我所说,构建一个WebRTC系统非常复杂,所以请再三考虑你的场景:你真的需要一个WebRTC系统,还是只需要通过WebRTC发布直播?
如果不确定,请先尝试直播解决方案,它简单且稳定。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.