我有一个使用 Keras 开发的 ML model,更准确地说,它使用的是 Functional API。保存 model 并在其上使用saved_model_cli工具后: 如您所见,3 个 output 属性被命名为: output_0 、 output_1和output_2 。 这就是我实例 ...
我有一个使用 Keras 开发的 ML model,更准确地说,它使用的是 Functional API。保存 model 并在其上使用saved_model_cli工具后: 如您所见,3 个 output 属性被命名为: output_0 、 output_1和output_2 。 这就是我实例 ...
TFX 服务的最大 http 帖子正文大小是多少? 我在https://www.tensorflow.org/tfx/serving/api_rest文档或文档的其他部分都找不到它。 大多数 web 服务器都有一些默认的最大值,可以配置,但我还没有找到任何东西。 我有不同大小的功能,其中一些超过 ...
我使用 Recommenders https://github.com/microsoft/recommenders库来训练 NCF 推荐 model。目前我在通过 Amazon TensorflowModel 库进行部署时遇到问题 Model使用以下代码保存 过程中导出的文件是'checkpoi ...
对于当前的批量转换推理,我看到了很多瓶颈, 每个输入文件只能有近 1000 条记录目前它正在 ml.g4dn.12xlarge 的 1 个实例上处理 2000/min 记录 GPU 实例不一定比 cpu 实例有任何优势。 我想知道这是否是当前可用的 tensorflow 服务容器 v2.8 的现有限 ...
这个SavedModel是仅用于 Tensorflow 前端应用程序还是可用于以 keras 格式重新加载模型。 我使用tf.saved_model.save创建它,现在我不知道该怎么做。 按照上面的指南,我能够加载一个SavedModel目录,它似乎没有用,不可训练,也不能用于预测像model.p ...
我按照此处列出的所有步骤使用 tensorflow 服务https://www.tensorflow.org/tfx/serving/tensorboard 使用下面的命令使用 docker 运行 但我不断收到以下错误2022-12-19 15:51:44.300838: I tensorflow ...
我参考这个教程建立了一个seq2seq模型。 https://keras.io/examples/nlp/lstm_seq2seq/ 训练完模型后,我没有直接保存模型,而是分别保存了encoder_model和decoder_model。我正在使用TensorFlow serving来部署这两个模 ...
我们正在尝试从 /tensorflow/serving:1.12 迁移到 /tensorflow/serving:2.8.2,我们使用 grpc 调用来获得推荐,我们有两种类型的调用,一种用于 grpc 调用请求推荐的每个成员一个成员,另一种类型,我们发送了一批成员,在 TF1 中一切正常,现在在 ...
我正在尝试使用 docker compose(提供 model + 微服务)运行 tensorflow-serving,但 tensorflow 服务容器失败并出现以下错误,然后重新启动。 我监测了 memory 的使用情况,似乎有很多 memory。 我还使用 Docker Desktop 增加 ...
我正在使用 tensorflow/serving 图像并在尝试运行 docker 文件时遇到此错误。 第 1 步:> 拉取 tensorflow 服务映像 第2步:将我的模型存储到我的项目文件夹中的(保存模型)文件夹中(detection-potato-lite) 第 3 步:在 Projec ...
我一直在试图弄清楚如何使用 K8s 的 yaml 配置文件来服务多个模型。 我可以使用以下命令直接在 Bash 中运行,但无法将其转换为 yaml。 我读到 model_config_file 可以使用命令元素添加,但不确定将其放在哪里,并且我不断收到有关有效命令的错误或无法找到该文件。 下面的示例 ...
无法让这个 dockerfile 工作。 我不断收到同样的错误: tensorflow_serving/sources/storage_path/file_system_storage_path_source.cc:365] FileSystemStoragePathSource 遇到文件系统访 ...
我有个问题。 我有以下命令。 我想将这些添加到dockerfile和 docker docker-compose .yml。 问题是models位于以下文件夹结构下。 所以我将不得不返回一个文件夹并进入另一个文件夹。 我究竟如何使这一切正常工作? 文件夹结构 services: tfs ...
我有个问题。 我有一个自由文本,例如:“今天天气很好”,这个自由文本我想预测它是哪个班级。 为此,我想使用tf serving 。 我没有将自由文本直接放入模型中,而是先清理句子,然后将其连接到向量。 但是,如何将这些步骤合并到tf serving过程中。 我的x_ready进入model.pred ...
我正在尝试提供 TensorFlow 模型(使用 TensorFlow Serving)。 看来,为了使用 TensorFlow Serving API 并进行预测,我需要使用make_tensor_proto方法。 对于我的 Docker 映像,我正在安装 1.3GB 的 TensorFlow ...
我有一个输入模型,其形状类似于 (145, 24, 24, 3) 通过 tensorflow keras 输出的模型负载将具有类似 (145, 4) 的形状 但是当我将输入从张量转换为列表并将其发布到模型服务中时。 输出返回 (,4) 我在 docker 中使用 tensorflow-serv ...
我正在尝试下面的代码,但出现意外错误这是我获取输入并将其传递给 model 的代码。 在我使用以下代码将这些数据发送到 model 之后: 但我得到了意想不到的 output: ...
我已经用一个额外的层训练了 resnet 来预测狗 vs 猫模型并使用 localhost 从本地服务它 $ saved_model_cli show --all --dir resnet/1显示这个签名: 当使用 JSON 向http://localhost:8501/models/re ...
我通过向 resnet 添加了一个层,在 google colab 上训练了一个模型。 这是模型: import tensorflow_hub as hub # 提供预训练模型 它在 colab 笔记本上运行良好。 但是,当我导出并想使用以下代码将其部署到烧瓶服务中时: 我得到这个讨厌的 ...
TensorFlow Serving (TFS) Predict API 输出是否与 tf.keras.model.predict 方法相同(即模型根据编译指标的输出)? 例如,如果我们有一个使用 BinaryAccuracy 指标编译的 tf.keras.model,那么 TFS 预测 API ...