[英]How can I mix incoming WebRTC audio streams into a single stream on a server?
我正在開展一個項目,該項目涉及為 web 構建音頻會議應用程序。 目前我的工作系統使用 WebSocket 服務器來協商對等方之間的連接,然后可以將 stream 音頻直接相互連接。 但是,我希望將服務器實現為它自己的客戶端/對等點,它將接收所有傳入的音頻流,將它們“混合”成單個源/流,然后將 stream 單獨發送給所有對等點。 目標是避免用戶連接之間的直接對等連接。
也許一個更簡單的問題是我如何完成給定圖形的概念,綠色方塊是 RTCPeerConnections,服務器將傳入的流“轉發”給接收者? 數字
我怎樣才能做到這一點,關於服務器的系統資源,這個概念是否可行?
謝謝。
您可以使用kurento 。 它基於 webRTC 及其媒體服務器功能,包括群組通信、轉碼、錄制、混合、廣播和視聽流路由。
您正在尋找的概念稱為多會議單元(MCU)。 MCU 不是標准 WebRTC 的一部分。 WebRTC 僅是點對點的。
有幾種提供 MCU 功能的媒體服務器解決方案。 Milad 建議的 kurento 是一種選擇。 其他示例是Jitsi Videobridge或Janus 。
您可能要考慮的一種較新的方法是 SFU(選擇性轉發單元)。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.