![](/img/trans.png)
[英]unable to test google assistant action on web simulator (Error Cloud function deployment failed. Dismiss)
[英]Port existing custom chatbot as Google Assistant action
我们有一个框架,该框架实现了聊天机器人/语音助手逻辑,用于处理健康域中的复杂对话。 一切都在我们的服务器端实现。 这使我们可以完全控制响应的生成方式。
该频道(例如Alexa或Facebook Messenger云)调用了我们的Webhook:
集成新通道涉及将返回的响应转换为通道期望的形式,并设置一些标志(有声音,有显示等)。
到目前为止,这个简单的框架已对我们的Web聊天机器人 Facebook Messenger,Cortana,Alexa(需要一点点黑客手段以放弃其意图和插槽识别) 起作用 。
我们想为Google Assistant行为提供薄薄的支持。
有什么方法可以将来自助手用户的所有输入完整地传递到上述的Webhook中,并完全控制生成响应和确定对话结束的方式?
我不想钻研那些麻烦的API.AI来构建对话,这对于一些普通的情况(例如订购Uber)似乎很有利,但对于较长的对话却似乎很不利。
由于您的系统已经具有“自然语言理解”层,因此不需要API.AI/Dialogflow,可以完全跳过此层。 (即使对于大型和广泛的对话,NLU 也很有用,但是对于已经通过其他方式定义对话的情况而言,NLU就没有意义了。)
您将需要使用Actions SDK (在其使用的配置文件后有时称为action.json)来定义触发短语,但是此后,您将通过Webhook获得用户在对话中所说的所有文本。为您提供JSON。 您将使用JSON进行回复,该JSON包含文本/音频响应,卡片上的图像,可能还有建议芯片等。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.