簡體   English   中英

如何將實時音頻 stream 傳遞到 Direct Line Speech 端點?

[英]How to pass real-time audio stream to the Direct Line Speech endpoint?

我正在嘗試在我的自定義語音應用程序中使用 Direct Line Speech (DLS)。 Voice 應用程序可以訪問我想要(pcm 編碼)它直接到允許實時來回通信的 Direct Line Speech 的實時音頻流。

從 DLS 客戶端示例代碼( https://github.com/Azure-Samples/Cognitive-Services-Direct-Line-Speech-Client )中,我看到 Microsoft.CognitiveServices.Speech.Dialog.DialogServiceConnector 中的方法 ListenOneAsync()命名空間,但看起來它正在從本地麥克風捕獲媒體。

但是看看這里的回復( 新的 ms botbuilder 直線語音是否適合呼叫中心場景? ),似乎我可以將音頻 stream 直接發送到 DLS。 我似乎找不到任何有關此的文檔。 有人可以闡明如何實現這一目標嗎?

我相信您的答案在於Microsoft.CognitiveServices.Speech.Audio.AudioConfig class。 在 Direct Line Speech 客戶端中查看這一行

 this.connector = new DialogServiceConnector(config, AudioConfig.FromDefaultMicrophoneInput());

AudioConfig除了FromDefaultMicrophoneInput提供了許多選項。 我懷疑你會想要使用三個FromStreamInput重載之一。 如果您這樣做,那么ListenOnceAsync將使用您的 stream 而不是麥克風。

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM