簡體   English   中英

如何在計算機上的python2和3上運行PySpark / spark?

[英]How do I get PySpark/spark to run on both python2 and 3 on my computer?

我有適用於python 2.7的Spark / Pyspark。

我的電腦上也有python 3.6。

如何獲得自動在python3.6上運行的spark / pyspark?

Spark / pyspark目前僅在我的計算機上運行2.7

采用:

  • PYSPARK_PYTHON環境變量,用於為執行程序設置Python解釋器。
  • PYSPARK_DRIVER_PYTHON環境變量,用於為驅動程序設置Python解釋。

PYSPARK_PYTHON應該在每個工作節點上設置。 最好使用$SPARK_HOME/conf/spark-env.sh ,即

$ cat $SPARK_HOME/conf/spark-env.sh
#!/usr/bin/env bash

PYSPARK_PYTHON={which python3.6}

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM