繁体   English   中英

Google Cloud Dataflow - 在管道选项中提供 sdk_location

[英]Google Cloud Dataflow - providing an sdk_location in pipeline options

背景:

我有一个调用 google 数据流的 web 应用程序,最近想在管道选项中使用 sdk_location 参数。
我下载了 apache-beam sdk 并将其作为 tar.gz 文件上传到 gcs 存储桶。
然后我添加了 sdk_location={location of the.tar.gz file}

但是,当我现在进行数据流 API 调用时,我在工作程序启动日志中收到以下错误。
安装工人 package 失败。

其他人遇到过这个问题吗?
那是提供的正确 tarball 吗?

使用 Dataflow 时,您不必使用sdk_location选项,除非您对 Beam SDK 本身进行更改。

如果无法安装 worker package,请检查您是否缺少运行作业所需的依赖项。 例如,如果您使用的是 Python SDK: https://beam.apache.org/documentation/sdks/python-pipeline-dependencies/

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM