![](/img/trans.png)
[英]How can I run my spark app with python in the background with my computer shut off?
[英]How do I get PySpark/spark to run on both python2 and 3 on my computer?
我有適用於python 2.7的Spark / Pyspark。
我的電腦上也有python 3.6。
如何獲得自動在python3.6上運行的spark / pyspark?
Spark / pyspark目前僅在我的計算機上運行2.7
采用:
PYSPARK_PYTHON
環境變量,用於為執行程序設置Python解釋器。 PYSPARK_DRIVER_PYTHON
環境變量,用於為驅動程序設置Python解釋。 PYSPARK_PYTHON
應該在每個工作節點上設置。 最好使用$SPARK_HOME/conf/spark-env.sh
,即
$ cat $SPARK_HOME/conf/spark-env.sh
#!/usr/bin/env bash
PYSPARK_PYTHON={which python3.6}
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.