簡體   English   中英

FFmpeg 到 WebRTC 通過 UDP 和 DataChannel 實現低延遲屏幕共享

[英]FFmpeg to WebRTC via UDP and DataChannel for low latency screenshare

我正在探索使用 WebRTC 實現低延遲屏幕共享的不同方法,但遇到了問題。 任何幫助將非常感激!

到目前為止,我可以使用 FFmpeg 將我的 Mac OS 屏幕捕獲/廣播到本地主機,然后拿起 stream 並使用我網絡上的其他計算機播放它。

這是用於捕獲桌面視頻的 FFmpeg 命令行:

ffmpeg -f avfoundation -framerate 60 -capture_cursor 1 -i "1" -c:v h264_videotoolbox -realtime 1 -vsync 2 -b:v 5000k out777777.mp4

我想知道是否有一種方法可以利用 WebRTC(理想情況下是數據通道方法),以便遠程計算機拾取並播放此 UDP stream 一旦我的桌面的兩個對等點連接數據通道?

謝謝!

ffmpeg 本身無法為您提供 WebRTC 的幫助,因此您需要將它們拼接在一起或使用完整的 WebRTC 實現。

有人確實使用名為webrtc-remote-screen 的 libx264實現了屏幕共享,這可能會有所幫助!

如果你想建立自己的,你將需要

  • SDP 實現(以及傳輸它的信令)

  • 冰代理

  • DTLS 實施

  • SCTP 實施

然后你可以通過 SCTP 發送你的幀。 這些堆棧中的每一個都非常復雜,因此您需要單獨研究每個問題。

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM