简体   繁体   English

使用本地Python运行SPARK作业

[英]Running SPARK job with local Python

I am submitting a spark job as follows : 我正在提交以下工作:

spark-submit --conf spark.ui.port=5051 server_code.py

My python is set to my home users python : 我的python设置为我的家庭用户python:

export PYSPARK_PYTHON="$HOME/software/anaconda3/bin/python3.7"

However when I run spark like this it cannot access this python so complains. 但是,当我像这样运行spark时,它无法访问此python,因此会抱怨。 Is there any way around this? 有没有办法解决? I am able to run spark jobs with the above configurations when the job doesnt involve a web UI. 当作业不涉及Web UI时,我可以使用上述配置运行spark作业。 In the case above, I am serving out a web UI with the results. 在上述情况下,我正在提供带有结果的Web UI。

java.io.IOException: Cannot run program "/x/software/anaconda3/bin/python3.7": error=13, Permission denied

I solved my problem by providing access permissions to folders from the home directory. 我通过提供对主目录文件夹的访问权限解决了我的问题。 chmod 777 dir name all the way down to chmod 777 to the actual python script chmod 777目录名一直到chmod 777到实际的python脚本

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM