簡體   English   中英

將網絡攝像頭視頻流式傳輸到AWS Kinesis?

[英]Streaming webcam video to AWS Kinesis?

我知道這可能是一個相對普遍的問題,但我試圖看看我如何能夠指出正確的方向......

我正在嘗試使用AWS Rekognition構建一個實時面部識別應用程序。 我對API非常熟悉,並使用上傳到S3的靜態圖像來執行面部識別。 但是,我正在嘗試找到一種將實時數據流式傳輸到Rekognition的方法。 在閱讀了亞馬遜提供的各種文章和文檔后,我發現了這個過程,但似乎無法克服一個障礙。

根據文檔,我可以使用Kinesis來實現這一目標。 看起來非常簡單:創建Kinesis視頻流,並通過Rekognition處理流。 制作人將流數據生成到Kinesis流中,我是金色的。

我遇到的問題是生產者。 我發現AWS有一個Java Producer庫( https://docs.aws.amazon.com/kinesisvideostreams/latest/dg/producer-sdk-javaapi.html )。 太好了......看起來很簡單,但現在我如何使用該生產者從我的網絡攝像頭捕獲流,並將字節發送給Kinesis? AWS提供的示例代碼實際上使用來自目錄的靜態圖像,沒有代碼可以將其與實際的實時源(如網絡攝像頭)集成。

理想情況下,我可以加載我的相機作為輸入源和開始流。 但我似乎無法找到有關如何執行此操作的任何文檔。

任何幫助或方向將不勝感激。

您可以使用GStreamer示例應用程序 ,它使用網絡攝像頭或連接到您機器的任何相機作為輸入,將視頻攝取到Kinesis Video Streams中。 目前,示例應用程序可以在Mac,Ubuntu或Raspberry Pi中執行。 您還可以使用Android示例應用從Android設備中提取視頻。

此外,對於AWS Rekognition與Kinesis Video Streams的集成,請查看Consumer Parser庫中發布的示例 此示例顯示如何攝取視頻文件(您可以使用上面的GStreamer示例應用程序替換實時生成器),檢索數據,解析MKV,解碼H264幀,與Rekognition JSON輸出集成並在視頻中檢測到的臉部上繪制邊界框幀。

目前,要將AWS Rekogniton與直播攝像頭配合使用,您必須按照此處的說明設置AWS kinesis視頻流和AWS kinesis數據流: https ://docs.aws.amazon.com/rekognition/latest/dg/recognize-faces -in-A-視頻stream.html

之后,您必須使用API​​:PutMedia將實時流幀發送到AWS Kinesis視頻流。 然后AWS Rekognition將此作為輸入,在處理之后,輸出將發送到AWS Kinesis數據流。 因此,您將從AWS Kinesis數據流中獲取結果。

所有步驟都非常簡單,但您可能會遇到PutMedia API的問題。 現在,我找不到任何文檔來實現它,但您可以使用此源代碼作為參考。 它使用MediaSource而不是PutMedia從您的webcam / usb_cam創建實時流媒體視頻。 您可以從它開始並進行一些更改以使用PutMedia而不是MediaSource。 https://github.com/backdoorcodr/amazon-kinesis-video-streams-producer-sdk-java

我正在做同樣的事情,但需要時間因為我只是一個java新手。 希望它可以提供幫助。

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM