繁体   English   中英

在云服务器上托管 RASA NLU 模型

[英]Hosting RASA NLU Model on Cloud Server

我正在使用 RASA NLU 开发语音助手,稍后将部署在 android/IOS 移动应用程序上。 我目前有一个 python 程序,我在其中调用 RASA NLU 模型并使用 Interpreter 类解析传入的输入。

interpreter = Interpreter.load("training_data/models/nlu/default/current/")
interpreter.parse(input)

我得到的答案存储在一个 JSON 对象中,我在其中解析它以获得意图 + 关联的实体。 我稍后获取此输出并使用 AIML 解释器为其获取相应的响应。 我将所有响应存储在 AIML 文件中。

现在我的问题是所有这些代码都在我的机器上本地运行。 我想在服务器上加载我的 RASA NLU 模型,然后使用某种 API 从模型请求响应并将其发送到 AIML 内核(也存储在服务器上)。 该模型应始终在服务器上运行,我将从移动应用程序发送请求。 有什么建议?

我建议您首先对服务器进行 Rasa X 部署,如 rasa.com 上的文档中所述。

一旦你开始工作,然后创建一个自定义连接器来访问 Rasa Open Source 的 HTTP-API。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM