[英]Unable to run spark on my machine (Ubuntu 18.04)
我收到此錯誤:
[FATAL tini (9)] exec /usr/local/spark-2.3.1-bin-hadoop2.7/bin/pyspark failed: No such file or directory
在終端中運行以下命令時:
docker run -it --rm -p 4040:4040 \
jupyter/pyspark-notebook \
/usr/local/spark-2.3.1-bin-hadoop2.7/bin/pyspark
您要做的就是使用shell手動登錄到Docker容器並檢查路徑。 為此,您將:
docker run -it --rm jupyter/pyspark-notebook sh
然后使用ls
遍歷目錄樹。
實際上,在您的jupyter/pyspark-notebook
使用的當前版本的jupyter/pyspark-notebook
使用spark-2.4.0-bin-hadoop2.7
(通知版本不匹配),因此您的答案是:
采用
docker run -it --rm -p 4040:4040 jupyter/pyspark-notebook /usr/local/spark-2.4.0-bin-hadoop2.7/bin/pyspark
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.