簡體   English   中英

將現有的自定義聊天機器人移植為Google Assistant操作

[英]Port existing custom chatbot as Google Assistant action

我們有一個框架,該框架實現了聊天機器人/語音助手邏輯,用於處理健康域中的復雜對話。 一切都在我們的服務器端實現。 這使我們可以完全控制響應的生成方式。

該頻道(例如Alexa或Facebook Messenger雲)調用了我們的Webhook:

  • 當用戶發送消息時,平台將這些消息發送到我們的網絡掛鈎:散列的用戶ID,消息文本(聊天消息或轉錄的語音)
  • 我們的webhook以適當的結構化響應進行響應,其中包括要顯示的文本,語音,可能的選擇按鈕以及一些圖像等。它還包含一個標志,指示當前會話是否已完成或是否需要用戶輸入。

集成新通道涉及將返回的響應轉換為通道期望的形式,並設置一些標志(有聲音,有顯示等)。

到目前為止,這個簡單的框架已對我們的Web聊天機器人 Facebook Messenger,Cortana,Alexa(需要一點點黑客手段以放棄其意圖和插槽識別) 起作用

我們想為Google Assistant行為提供薄薄的支持。

有什么方法可以將來自助手用戶的所有輸入完整地傳遞到上述的Webhook中,並完全控制生成響應和確定對話結束的方式?

我不想鑽研那些麻煩的API.AI來構建對話,這對於一些普通的情況(例如訂購Uber)似乎很有利,但對於較長的對話卻似乎很不利。

由於您的系統已經具有“自然語言理解”層,因此不需要API.AI/Dialogflow,可以完全跳過此層。 (即使對於大型和廣泛的對話,NLU 很有用,但是對於已經通過其他方式定義對話的情況而言,NLU就沒有意義了。)

您將需要使用Actions SDK (在其使用的配置文件后有時稱為action.json)來定義觸發短語,但是此后,您將通過Webhook獲得用戶在對話中所說的所有文本。為您提供JSON。 您將使用JSON進行回復,該JSON包含文本/音頻響應,卡片上的圖像,可能還有建議芯片等。

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM