簡體   English   中英

如何從運行 PySpark 內核的 EMR jupyter notebook 中的另一個 ipynb 文件導入?

[英]How to import from another ipynb file in EMR jupyter notebook which runs a PySpark kernel?

我在 AWS EMR 上使用 jupyter notebook 運行 PySpark,但在從另一個文件導入模塊時遇到問題。 我嘗試了在 stackoverflow 上搜索的幾種方法,但都沒有奏效。 更具體地說,我嘗試了以下操作(這里我有一個名為“include.ipynb”的筆記本,與運行導入語句的筆記本位於同一目錄中):

在此處輸入圖片說明

這兩種方法都適用於我本地計算機上的 jupyter notebook。 他們為什么不在 AWS 上工作?

您必須使用 Pip 或 conda 在 EMR 中明確安裝這些軟件包。 您的本地已經安裝了這些軟件包。

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM