![](/img/trans.png)
[英]Apache Beam Side Inputs not working in Streaming Dataflow Pipeline with Python SDK
[英]What is a convenient way to deploy and manage execution of a Python SDK Apache Beam pipeline for Google cloud Dataflow
使用Python SDK和DataflowRunner
在Google的云Dataflow中设计和测试了Apache Beam管道之后, 将其放入Google云并管理其执行的便捷方法是什么?
部署和管理适用于Google Cloud Dataflow的Python SDK Apache Beam管道的便捷方法是什么?
应该以某种方式包装吗? 上传到Google存储空间了吗? 创建数据流模板? 在开发人员从其开发环境中执行它之外,如何安排其执行?
更新
最好没有第三方工具,也不需要特别是Google云和Dataflow之外的其他管理工具/基础架构。
直观地,您希望Dataflow文档的“使用指南 ”下的“ 部署管道 ”部分将对此进行介绍。 但是,您只能在“ 模板概述 ”部分中找到对这8个部分的解释。
根据该部分:
Cloud Dataflow模板引入了新的开发和执行工作流程,与传统的作业执行工作流程不同。 模板工作流程将开发步骤与登台和执行步骤分开。
通常,您不会从Google Cloud部署和执行Dataflow管道。 但是,如果您需要与云的非技术成员共享管道的执行,或者只是想在不依赖开发环境或第三方工具的情况下触发管道,则需要数据流模板。
开发和测试管道后,您可以从中创建数据流作业模板。
请注意:
要使用适用于Python的Cloud Dataflow SDK 2.x创建模板,您必须具有2.0.0或更高版本。
您将需要使用带有管道选项的DataflowRunner
执行管道,该管道选项将在Google Cloud存储上生成模板,而不是运行模板。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.