繁体   English   中英

如何在 AWS SageMaker 中部署自定义 model?

[英]How to deploy a custom model in AWS SageMaker?

我有一个自定义机器学习预测 model。 我还有一个用户定义的 Estimator class,它使用 Optuna 进行超参数调整。 我需要将此 model 部署到 SageMaker,以便从 lambda function 调用它。

我在为 model 和 Estimator 创建容器的过程中遇到了麻烦。

我知道 SageMaker 有一个可用于 Optuna 的 scikit learn 容器,但我将如何利用它来包含我自己的 Estimator class 中的功能? 此外,model 是传递给此 Estimator class 的参数之一,那么如何将其定义为单独的训练作业以使其成为端点?

这是调用 Estimator class 和 model 的方式:

sirf_estimator = Estimator(
    SIRF, ncov_df, population_dict[countryname],
    name=countryname, places=[(countryname, None)],
    start_date=critical_country_start
    )
sirf_dict = sirf_estimator.run()

在哪里:

  1. Model 名称:SIRF
  2. 清理数据集:ncov_df

如果有人可以调查一下,那将非常有帮助,非常感谢!

SageMaker 推理端点当前依赖于基于 Docker 图像的接口。 在基础级别,您可以设置一个 Docker 映像,该映像运行 web 服务器并响应 AWS 需要的端口上的端点。 本指南将向您展示如何操作: https://docs.aws.amazon.com/sagemaker/latest/dg/your-algorithms-inference-code.html

这是一项烦人的工作。 如果您使用的是众所周知的框架,他们有一个容器库,其中包含一些您可以重用的样板代码: https://github.com/aws/sagemaker-containers 您也许可以从那里重用一些代码,但要对其进行自定义。

或者根本不使用 SageMaker 推理端点:) 如果您的 model 可以适应 AWS Lambda 的大小/memory 限制,那将是一个更简单的选择!

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM