簡體   English   中英

當我嘗試從 s3 加載數據時,sagemaker kernel 中的 Jupyter 筆記本一直死機

[英]Jupyter notebook in sagemaker kernel keeps dying when I try to load data from s3

在 sagemaker jupyter notebook 中,我運行以下代碼從 s3 存儲桶加載數據。

import boto3
import pandas as pd
from sagemaker import get_execution_role

role = get_execution_role()
bucket='bucketname'
data_key = 'filename'
data_location = 's3://{}/{}'.format(bucket, data_key)

data=pd.read_csv(data_location)

然后 kernel 死了,我收到一個彈出窗口說“kernel 似乎已經死了。它將自動重新啟動。”

有沒有一種簡單的方法可以在 sagemaker 中從 s3 加載數據?

很可能您創建的筆記本實例太小。 大多數為演示使用ml.t2.medium ,但可能需要ml.t2.large或更高版本。

請記住, t2是第二代,AWS 保證后續代 ( t3 )至少與上一代一樣具有成本效益。 IE 使用ml.t3.mediumml.t3.large

我遇到了同樣的問題並聯系了 AWS 客戶服務以增加實例。

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM