[英]AWS Glue automatic job creation
我有可以在 AWS GLUE 中运行的 pyspark 脚本。 但是每次我从 UI 创建作业并将我的代码复制到作业时。无论如何我可以从 s3 存储桶中的文件自动创建作业。 (我拥有运行时将使用的所有库和胶水上下文)
另一种选择是使用AWS CloudFormation 。 您可以在模板文件中定义要创建的所有 AWS 资源(不仅是 Glue 作业),然后在需要时从AWS 控制台或使用 cli更新堆栈。
胶水作业的模板如下所示:
MyJob:
Type: AWS::Glue::Job
Properties:
Command:
Name: glueetl
ScriptLocation: "s3://aws-glue-scripts//your-script-file.py"
DefaultArguments:
"--job-bookmark-option": "job-bookmark-enable"
ExecutionProperty:
MaxConcurrentRuns: 2
MaxRetries: 0
Name: cf-job1
Role: !Ref MyJobRole # reference to a Role resource which is not presented here
我编写了执行以下操作的脚本:
您可以编写 shell 脚本来执行此操作。
我创建了一个名为datajob
开源库来部署和编排粘合作业。 您可以在 github https://github.com/vincentclaes/datajob和 pypi 上找到它
pip install datajob
npm install -g aws-cdk@1.87.1
您创建一个文件datajob_stack.py
来描述您的粘合作业及其编排方式:
from datajob.datajob_stack import DataJobStack
from datajob.glue.glue_job import GlueJob
from datajob.stepfunctions.stepfunctions_workflow import StepfunctionsWorkflow
with DataJobStack(stack_name="data-pipeline-simple") as datajob_stack:
# here we define 3 glue jobs with a relative path to the source code.
task1 = GlueJob(
datajob_stack=datajob_stack,
name="task1",
job_path="data_pipeline_simple/task1.py",
)
task2 = GlueJob(
datajob_stack=datajob_stack,
name="task2",
job_path="data_pipeline_simple/task2.py",
)
task3 = GlueJob(
datajob_stack=datajob_stack,
name="task3",
job_path="data_pipeline_simple/task3.py",
)
# we instantiate a step functions workflow and add the sources
# we want to orchestrate.
with StepfunctionsWorkflow(
datajob_stack=datajob_stack, name="data-pipeline-simple"
) as sfn:
[task1, task2] >> task3
要部署您的代码以粘合执行:
export AWS_PROFILE=my-profile
datajob deploy --config datajob_stack.py
非常感谢任何反馈!
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.