cost 170 ms
部署使用 TF2 以 TF1 格式构建的 Tensorflow model(未找到 SavedModel 包!) - Deploy a Tensorflow model built using TF2 in TF1 format (no SavedModel bundles found!)

我使用 Recommenders https://github.com/microsoft/recommenders库来训练 NCF 推荐 model。目前我在通过 Amazon TensorflowModel 库进行部署时遇到问题 Model使用以下代码保存 过程中导出的文件是'checkpoi ...

优化 sagemaker 上的批量转换推理 - Optimize batch transform inference on sagemaker

对于当前的批量转换推理,我看到了很多瓶颈, 每个输入文件只能有近 1000 条记录目前它正在 ml.g4dn.12xlarge 的 1 个实例上处理 2000/min 记录 GPU 实例不一定比 cpu 实例有任何优势。 我想知道这是否是当前可用的 tensorflow 服务容器 v2.8 的现有限 ...

SavedModel 的使用仅用于 Tensor 服务或重新训练 - SavedModel usage is just for Tensor serving or to retrain

这个SavedModel是仅用于 Tensorflow 前端应用程序还是可用于以 keras 格式重新加载模型。 我使用tf.saved_model.save创建它,现在我不知道该怎么做。 按照上面的指南,我能够加载一个SavedModel目录,它似乎没有用,不可训练,也不能用于预测像model.p ...

将 TensorFlow 服务 1 迁移到 2,RESSOURCE_EXHAUSTED 来自 grpc 调用 - Migrating TensorFlow serving 1 to 2, RESSOURCE_EXHAUSTED from grpc calls

我们正在尝试从 /tensorflow/serving:1.12 迁移到 /tensorflow/serving:2.8.2,我们使用 grpc 调用来获得推荐,我们有两种类型的调用,一种用于 grpc 调用请求推荐的每个成员一个成员,另一种类型,我们发送了一批成员,在 TF1 中一切正常,现在在 ...

尝试使用张量流/服务图像运行 docker 时无法启动服务器错误 - Failed to start server error when trying run docker using the tensorflow/serving image

我正在使用 tensorflow/serving 图像并在尝试运行 docker 文件时遇到此错误。 第 1 步:> 拉取 tensorflow 服务映像 第2步:将我的模型存储到我的项目文件夹中的(保存模型)文件夹中(detection-potato-lite) 第 3 步:在 Projec ...

TensorFlow 在 K8s 的 YAML 文件中设置 model_config_file 运行时参数 - TensorFlow Setting model_config_file runtime argument in YAML file for K8s

我一直在试图弄清楚如何使用 K8s 的 yaml 配置文件来服务多个模型。 我可以使用以下命令直接在 Bash 中运行,但无法将其转换为 yaml。 我读到 model_config_file 可以使用命令元素添加,但不确定将其放在哪里,并且我不断收到有关有效命令的错误或无法找到该文件。 下面的示例 ...

如何从命令创建 dockerfile 和 docker-compose.yml? - How do I create a dockerfile and docker-compose.yml from the commands?

我有个问题。 我有以下命令。 我想将这些添加到dockerfile和 docker docker-compose .yml。 问题是models位于以下文件夹结构下。 所以我将不得不返回一个文件夹并进入另一个文件夹。 我究竟如何使这一切正常工作? 文件夹结构 services: tfs ...

如何将 tf serving 与转换方法一起使用? - How do I use tf serving with transforming methods?

我有个问题。 我有一个自由文本,例如:“今天天气很好”,这个自由文本我想预测它是哪个班级。 为此,我想使用tf serving 。 我没有将自由文本直接放入模型中,而是先清理句子,然后将其连接到向量。 但是,如何将这些步骤合并到tf serving过程中。 我的x_ready进入model.pred ...

有没有办法使用 make_tensor_proto 而无需安装整个 TensorFlow 包? - Is there a way to use make_tensor_proto without having to install the entire TensorFlow package?

我正在尝试提供 TensorFlow 模型(使用 TensorFlow Serving)。 看来,为了使用 TensorFlow Serving API 并进行预测,我需要使用make_tensor_proto方法。 对于我的 Docker 映像,我正在安装 1.3GB 的 TensorFlow ...

服务后的模型输出与 keras 模型输出不同 - Output of model after serving different with keras model output

我有一个输入模型,其形状类似于 (145, 24, 24, 3) 通过 tensorflow keras 输出的模型负载将具有类似 (145, 4) 的形状 但是当我将输入从张量转换为列表并将其发布到模型服务中时。 输出返回 (,4) 我在 docker 中使用 tensorflow-serv ...

未知层:KerasLayer。 请确保将此对象传递给“custom_objects”参数 - Unknown layer: KerasLayer. Please ensure this object is passed to the `custom_objects` argument

我通过向 resnet 添加了一个层,在 google colab 上训练了一个模型。 这是模型: import tensorflow_hub as hub # 提供预训练模型 它在 colab 笔记本上运行良好。 但是,当我导出并想使用以下代码将其部署到烧瓶服务中时: 我得到这个讨厌的 ...


 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM