[英]unable to read large csv file from s3 bucket to python
所以我试图从s3存储桶中加载一个csv文件。 以下是代码
import pandas as pd
import boto3
import io
s3_file_key = 'iris.csv'
bucket = 'data'
s3 = boto3.client('s3')
obj = s3.get_object(Bucket=bucket, Key=s3_file_key)
initial_df = pd.read_csv(io.BytesIO(obj['Body'].read()))
工作正常。 iris.csv的大小仅为3kb。
现在,我尝试读取大小为6gb的“ mydata.csv”,而不是iris.csv。
我收到以下错误:
ClientError:调用GetObject操作时发生错误(AccessDenied):访问被拒绝
因为我将数据放在第一位,所以我无法理解访问可能是一个问题。 我也可以从同一位置读取“ iris.csv”。 有任何想法吗?
您可以执行以下几项操作:
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.