[英]How to deploy a custom model in AWS SageMaker?
我有一个自定义机器学习预测 model。 我还有一个用户定义的 Estimator class,它使用 Optuna 进行超参数调整。 我需要将此 model 部署到 SageMaker,以便从 lambda function 调用它。
我在为 model 和 Estimator 创建容器的过程中遇到了麻烦。
我知道 SageMaker 有一个可用于 Optuna 的 scikit learn 容器,但我将如何利用它来包含我自己的 Estimator class 中的功能? 此外,model 是传递给此 Estimator class 的参数之一,那么如何将其定义为单独的训练作业以使其成为端点?
这是调用 Estimator class 和 model 的方式:
sirf_estimator = Estimator(
SIRF, ncov_df, population_dict[countryname],
name=countryname, places=[(countryname, None)],
start_date=critical_country_start
)
sirf_dict = sirf_estimator.run()
在哪里:
如果有人可以调查一下,那将非常有帮助,非常感谢!
SageMaker 推理端点当前依赖于基于 Docker 图像的接口。 在基础级别,您可以设置一个 Docker 映像,该映像运行 web 服务器并响应 AWS 需要的端口上的端点。 本指南将向您展示如何操作: https://docs.aws.amazon.com/sagemaker/latest/dg/your-algorithms-inference-code.html 。
这是一项烦人的工作。 如果您使用的是众所周知的框架,他们有一个容器库,其中包含一些您可以重用的样板代码: https://github.com/aws/sagemaker-containers 。 您也许可以从那里重用一些代码,但要对其进行自定义。
或者根本不使用 SageMaker 推理端点:) 如果您的 model 可以适应 AWS Lambda 的大小/memory 限制,那将是一个更简单的选择!
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.