简体   繁体   English

如何从 apache beam python 读取 s3 文件?

[英]how to read s3 files from apache beam python?

I am using Apache Beam python SDK to read s3 file data.我正在使用 Apache Beam python SDK 读取 s3 文件数据。

code I am using我正在使用的代码

    ip = (pipe
          | beam.io.ReadFromText("s3://bucket_name/file_path")
          | beam.Map(lambda x: x.split(","))
          | beam.Map(print)

          )

but it gives a error但它给出了一个错误

 S3ClientError('Unable to locate credentials', None)}")}

Anybody have any idea how to give credentials to s3 client thorugh apache beam python file任何人都知道如何通过 apache beam python 文件向 s3 客户端提供凭据

You need to ensure the credentials are available on your worker machines.您需要确保凭据在您的工作计算机上可用。 One way to do this is installing them in a custom container .一种方法是将它们安装在自定义容器中

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

相关问题 如何从谷歌数据流 apache 光束 python 中的 GCS 存储桶中读取多个 JSON 文件 - How to read multiple JSON files from GCS bucket in google dataflow apache beam python 从 s3 存储桶中读取与 python 中的模式匹配的文件 - Read files from s3 bucket that match a pattern in python Python AWS Boto3:如何从 S3 存储桶中读取文件? - Python AWS Boto3: How to read files from S3 bucket? 在 python 中更快地从 s3 读取多个文件 - Read multiple files from s3 faster in python 如何将文件夹中的多个文件从 s3 加载到 Python Notebooks - how to load multiple files in a folder from s3 to Python Notebooks Snowflake - 如何从 S3 中的镶木地板文件中读取元数据 - Snowflake - how to read metadata from parquet files in S3 如何使用 python 列出 S3 存储桶文件夹中的文件 - how to list files from a S3 bucket folder using python apache-beam 从 GCS 桶的多个文件夹中读取多个文件并加载它 biquery python - apache-beam reading multiple files from multiple folders of GCS buckets and load it biquery python 如何使用 python 编辑 S3 文件 - How to edit S3 files with python 使用 GCP 数据流和 Apache Beam Python SDK 从 GCS 读取速度非常慢 - Incredibly slow read from GCS with GCP Dataflow & Apache Beam Python SDK
 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM