簡體   English   中英

AWS rekognition 能否分析視頻流中的人臉(情緒等)?

[英]Can AWS rekognition analyze faces (emotion, etc.) in a video stream?

我認為我可以從今天的文檔看起來我不能( https://docs.aws.amazon.com/rekognition/latest/dg/streaming-video.html )。 似乎視頻流只支持人臉檢測,不支持分析。 分析說它只適用於存儲的媒體 ( https://docs.aws.amazon.com/rekognition/latest/dg/faces.html )。 有人可以證實這一點嗎?

如果是這樣,想知道在 AWS 上“破解”視頻流分析的好方法是什么? 使用 lambda 函數從 kines 讀取視頻,將其切成塊,寫入 S3,然后讓面部分析器(重新識別)定期輪詢 S3 以分析面部是否有意義? 我們真的需要視頻流的情感分析......

非常感謝!!

您可以將單獨的幀發送到 rekognition,如果您在面部繪制帶有文本的邊界框,您可以每 n 幀更新一次它們的位置和情緒,具體取決於您需要多少 fps。

OpenCv 是一個不錯的選擇,盡管我不知道您是否可以在 lambda 函數中使用它。 我想您可能不需要對視頻的每一幀都進行分析。

[我尚未驗證此方法,但請看一看它是否適合您]

Rekognition Video 允許您檢測和識別流視頻中的人臉。 結果在 Kinesis 數據流中可用。 您可以使用該流來識別和定位帶有人臉的幀。 然后,您可以檢索這些幀作為圖像並將它們發送到 Rekognition Image 進行進一步分析,例如標記情感。

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM