![](/img/trans.png)
[英]Training & Deploying SageMaker ML Models using AWS Lambda (NodeJS)
[英]AWS SageMaker - training locally but deploying to AWS?
SageMaker面临以下挑战:
我通过修改以下行在本地(成功地)运行了培训:
abalone_estimator = TensorFlow(entry_point='abalone.py', role=role, training_steps= 100, evaluation_steps= 100, hyperparameters={'learning_rate': 0.001}, train_instance_count=1, **train_instance_type='local'**) abalone_estimator.fit(inputs)
然后,我想通过以下代码行将模型部署到AWS,但似乎SDK在本地部署了(它不会失败,我只是看到它在我的机器上运行)
abalone_predictor = abalone_estimator.deploy(initial_instance_count=1, instance_type='ml.m4.xlarge')
关于如何修复它以便将其部署到AWS或重新加载我的训练模型并将其从头部署到AWS的任何技巧?
非常感谢,斯特凡
在SageMaker上再次运行培训更加容易。 否则,这是您必须执行的步骤。
如果您想了解上述每个特定步骤的详细信息,请告诉我,但是如果您的数据集不太大,我想说的就是对SageMaker进行重新培训。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.