![](/img/trans.png)
[英]Debugging a slow PyTorch GPU Inference Pipeline on Beam/Google Cloud Dataflow
[英]Google Cloud Dataflow - providing an sdk_location in pipeline options
背景:
我有一个调用 google 数据流的 web 应用程序,最近想在管道选项中使用 sdk_location 参数。
我下载了 apache-beam sdk 并将其作为 tar.gz 文件上传到 gcs 存储桶。
然后我添加了 sdk_location={location of the.tar.gz file}
但是,当我现在进行数据流 API 调用时,我在工作程序启动日志中收到以下错误。
安装工人 package 失败。
其他人遇到过这个问题吗?
那是提供的正确 tarball 吗?
使用 Dataflow 时,您不必使用sdk_location
选项,除非您对 Beam SDK 本身进行更改。
如果无法安装 worker package,请检查您是否缺少运行作业所需的依赖项。 例如,如果您使用的是 Python SDK: https://beam.apache.org/documentation/sdks/python-pipeline-dependencies/
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.