[英]unable to read large csv file from s3 bucket to python
所以我試圖從s3存儲桶中加載一個csv文件。 以下是代碼
import pandas as pd
import boto3
import io
s3_file_key = 'iris.csv'
bucket = 'data'
s3 = boto3.client('s3')
obj = s3.get_object(Bucket=bucket, Key=s3_file_key)
initial_df = pd.read_csv(io.BytesIO(obj['Body'].read()))
工作正常。 iris.csv的大小僅為3kb。
現在,我嘗試讀取大小為6gb的“ mydata.csv”,而不是iris.csv。
我收到以下錯誤:
ClientError:調用GetObject操作時發生錯誤(AccessDenied):訪問被拒絕
因為我將數據放在第一位,所以我無法理解訪問可能是一個問題。 我也可以從同一位置讀取“ iris.csv”。 有任何想法嗎?
您可以執行以下幾項操作:
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.