![](/img/trans.png)
[英]Importing a Dataframe from one Jupyter Notebook into another Jupyter Notebook
[英]How to import a PySpark dataframe from one Jupyter Notebook to another without converting it to csv?
假设我在名为 Notebook1 的笔记本中有一个名为 spark_df 的 Z6A8064B5DF4794555500553C47C55057DZ,我想将其传输到名为 Notebook2 的笔记本中。 显然,我不能“从 Notebook1.ipynb 导入 spark_df”,也不能将其转换为 csv,因为 1)它太大,2)我需要更直接的方法。
我需要将它导入另一台笔记本电脑,因为在完成处理后我尝试做一些事情,kernel 死了。 那么如何在不将其转换为 csv 的情况下将 spark_df 导入 Notebook2?
由于您的 csv 太大而无法移入和移出磁盘,因此您可以将 stream 数据从一个 spark 作业转移到另一个。 请参阅结构化流编程指南
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.