簡體   English   中英

使用WebRTC將音頻流式傳輸到Java服務器

[英]Using WebRTC to stream audio to java server

我擔心我的問題的答案是否定的,但無論如何我都要問它以防萬一。

我想做的是將音頻從chrome瀏覽器傳輸到通過WebRTC用Java編寫的服務器。 我的理解是,要實現這一點,我需要一個peerconnection的Java實現。 到目前為止,我發現的只是用於android的libjingle Java API,但這對於集成到我的服務器應用程序中並不是特別有用(我更喜歡實際的Java實現,而不僅僅是C ++包裝器)。

如果一個庫來做我想要的東西真的不存在,那么有沒有人能指出我自己如何實際實現WebRTC規范? 當我看到這么大的規格時,我真的不知道從哪里開始。

你可以使用IceLink 我們(我幫助開發它)為它編寫了一個Java實現,以及.NET和Objective C.

這是一個用Java i / o套接字編寫的完整的Java WebRTC信號服務器。 https://code.google.com/p/jfraggws/只需創建一個項目,包含.Java文件並在項目中包含rt.jar。 接下來在Html 5客戶端上設置端口並插入服務器IP。 你現在有java webrtc。

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM