[英]FFmpeg to WebRTC via UDP and DataChannel for low latency screenshare
我正在探索使用 WebRTC 實現低延遲屏幕共享的不同方法,但遇到了問題。 任何幫助將非常感激!
到目前為止,我可以使用 FFmpeg 將我的 Mac OS 屏幕捕獲/廣播到本地主機,然后拿起 stream 並使用我網絡上的其他計算機播放它。
這是用於捕獲桌面視頻的 FFmpeg 命令行:
ffmpeg -f avfoundation -framerate 60 -capture_cursor 1 -i "1" -c:v h264_videotoolbox -realtime 1 -vsync 2 -b:v 5000k out777777.mp4
我想知道是否有一種方法可以利用 WebRTC(理想情況下是數據通道方法),以便遠程計算機拾取並播放此 UDP stream 一旦我的桌面的兩個對等點連接數據通道?
謝謝!
ffmpeg 本身無法為您提供 WebRTC 的幫助,因此您需要將它們拼接在一起或使用完整的 WebRTC 實現。
有人確實使用名為webrtc-remote-screen 的 libx264實現了屏幕共享,這可能會有所幫助!
如果你想建立自己的,你將需要
SDP 實現(以及傳輸它的信令)
冰代理
DTLS 實施
SCTP 實施
然后你可以通過 SCTP 發送你的幀。 這些堆棧中的每一個都非常復雜,因此您需要單獨研究每個問題。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.