[英]Sending video and audio stream to server
我正在嘗試開發一個系統,其中有兩個客戶端可以通過服務器從瀏覽器中相互聊天。 第一個客戶端將其視頻流發送到服務器,服務器將其發送到第二個客戶端。 此外,服務器將客戶端的流保存為視頻文件。
我使用了這個WebRTC示例: https : //github.com/webrtc/samples/blob/master/src/content/getusermedia/source/js/main.js
服務器端;
var express = require('express');
var app = express();
var http = require('http').Server(app);
var io = require('socket.io')(http);
app.use(express.static('C:/source/'));
app.get('/', function(req, res) {
res.sendFile('C:/source/index.html');
});
io.on('connection', function(socket) {
console.log('user connected.');
socket.on('disconnect', function() {
console.log('user disconnected.');
});
socket.on('chat message', function(msg) {
?
});
});
http.listen(3000, function(){
console.log('listening on *:3000');
});
客戶端;
var socket = io();
while(streaming) {
socket.emit(?);
}
我無法理解從哪個源我應該將客戶端的視頻+音頻流發送到服務器。 如果我成功上傳了流,我將能夠在服務器端處理它。
您將需要一台能夠處理WebRTC媒體的服務器。
我建議將Kurento , Janus , Jitsi Videobridge , FreeSWITCH和Asterisk作為替代品。
這需要您付出更多努力,因為所有這些都需要更多地了解它們,WebRTC和實時媒體處理。
如果您需要在昨天工作,並希望將您的努力和重點放在其他地方,那么您應該查看本報告中列出的有關WebRTC PaaS的一些供應商。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.