簡體   English   中英

如何將傳入的 WebRTC 音頻流混合到服務器上的單個 stream 中?

[英]How can I mix incoming WebRTC audio streams into a single stream on a server?

我正在開展一個項目,該項目涉及為 web 構建音頻會議應用程序。 目前我的工作系統使用 WebSocket 服務器來協商對等方之間的連接,然后可以將 stream 音頻直接相互連接。 但是,我希望將服務器實現為它自己的客戶端/對等點,它將接收所有傳入的音頻流,將它們“混合”成單個源/流,然后將 stream 單獨發送給所有對等點。 目標是避免用戶連接之間的直接對等連接。

也許一個更簡單的問題是我如何完成給定圖形的概念,綠色方塊是 RTCPeerConnections,服務器將傳入的流“轉發”給接收者? 數字

我怎樣才能做到這一點,關於服務器的系統資源,這個概念是否可行?

謝謝。

您可以使用kurento 它基於 webRTC 及其媒體服務器功能,包括群組通信、轉碼、錄制、混合、廣播和視聽流路由。

您正在尋找的概念稱為多會議單元(MCU)。 MCU 不是標准 WebRTC 的一部分。 WebRTC 僅是點對點的。

有幾種提供 MCU 功能的媒體服務器解決方案。 Milad 建議的 kurento 是一種選擇。 其他示例是Jitsi VideobridgeJanus

您可能要考慮的一種較新的方法是 SFU(選擇性轉發單元)。

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM