繁体   English   中英

将现有的自定义聊天机器人移植为Google Assistant操作

[英]Port existing custom chatbot as Google Assistant action

我们有一个框架,该框架实现了聊天机器人/语音助手逻辑,用于处理健康域中的复杂对话。 一切都在我们的服务器端实现。 这使我们可以完全控制响应的生成方式。

该频道(例如Alexa或Facebook Messenger云)调用了我们的Webhook:

  • 当用户发送消息时,平台将这些消息发送到我们的网络挂钩:散列的用户ID,消息文本(聊天消息或转录的语音)
  • 我们的webhook以适当的结构化响应进行响应,其中包括要显示的文本,语音,可能的选择按钮以及一些图像等。它还包含一个标志,指示当前会话是否已完成或是否需要用户输入。

集成新通道涉及将返回的响应转换为通道期望的形式,并设置一些标志(有声音,有显示等)。

到目前为止,这个简单的框架已对我们的Web聊天机器人 Facebook Messenger,Cortana,Alexa(需要一点点黑客手段以放弃其意图和插槽识别) 起作用

我们想为Google Assistant行为提供薄薄的支持。

有什么方法可以将来自助手用户的所有输入完整地传递到上述的Webhook中,并完全控制生成响应和确定对话结束的方式?

我不想钻研那些麻烦的API.AI来构建对话,这对于一些普通的情况(例如订购Uber)似乎很有利,但对于较长的对话却似乎很不利。

由于您的系统已经具有“自然语言理解”层,因此不需要API.AI/Dialogflow,可以完全跳过此层。 (即使对于大型和广泛的对话,NLU 很有用,但是对于已经通过其他方式定义对话的情况而言,NLU就没有意义了。)

您将需要使用Actions SDK (在其使用的配置文件后有时称为action.json)来定义触发短语,但是此后,您将通过Webhook获得用户在对话中所说的所有文本。为您提供JSON。 您将使用JSON进行回复,该JSON包含文本/音频响应,卡片上的图像,可能还有建议芯片等。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM