簡體   English   中英

如何在Pyspark中運行腳本並在完成后放入IPython shell?

[英]How to run script in Pyspark and drop into IPython shell when done?

我想運行一個spark腳本並放入一個IPython shell來交互式地檢查數據。

同時運行:

$ IPYTHON=1 pyspark --master local[2] myscript.py

$ IPYTHON=1 spark-submit --master local[2] myscript.py

一旦完成,退出IPython。

這看起來很簡單,但找不到如何在任何地方做到這一點。

如果您使用以下命令啟動iPython shell:

$ IPYTHON=1 pyspark --master local[2]

你可以做:

 >>> %run myscript.py

並且所有變量都將保留在工作區中。 您還可以逐步調試:

>>> %run -d myscript.py

使用IPYTHON=1 pyspark啟動IPython shell,然后運行execfile('/path/to/myscript.py') ,它應該在shell中運行你的腳本並返回它。

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM