繁体   English   中英

如何在不将其转换为 csv 的情况下将 PySpark dataframe 从一台 Jupyter 笔记本导入到另一台笔记本?

[英]How to import a PySpark dataframe from one Jupyter Notebook to another without converting it to csv?

假设我在名为 Notebook1 的笔记本中有一个名为 spark_df 的 Z6A8064B5DF4794555500553C47C55057DZ,我想将其传输到名为 Notebook2 的笔记本中。 显然,我不能“从 Notebook1.ipynb 导入 spark_df”,也不能将其转换为 csv,因为 1)它太大,2)我需要更直接的方法。

我需要将它导入另一台笔记本电脑,因为在完成处理后我尝试做一些事情,kernel 死了。 那么如何在不将其转换为 csv 的情况下将 spark_df 导入 Notebook2?

由于您的 csv 太大而无法移入和移出磁盘,因此您可以将 stream 数据从一个 spark 作业转移到另一个。 请参阅结构化流编程指南

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM