[英]spark-submit failing in cluster mode with error 13, permission denied for pyspark job
我們在附帶默認 python 2.7 的 RHEL 7 機器上安裝了 cloudera CDH 6.2。 在虛擬環境中使用 python 3.7 提交 pyspark 作業。 帶有 --master local 和 --deploy-mode 客戶端的客戶端模式運行良好。 但是, --master yarn 和 --deploy-mode 集群存在問題。
這個命令spark-submit --master yarn --deploy-mode cluster --conf spark.yarn.appMasterEnv.PYSPARK_PYTHON=/home/user/R1_I5/bin/python --conf spark.yarn.appMasterEnv.SPARK_HOME=/opt/cloudera/parcels/CDH/lib/spark --conf spark.executorEnv.SPARK_HOME=/opt/cloudera/parcels/CDH/lib/spark sample.py
失敗,出現以下 2 個錯誤
案例 1 錯誤日志:--deploy-mode cluster
Cannot run program "/home/user/R1_I5/bin/python": error=13, Permission denied
詳細日志: https://drive.google.com/file/d/1J7HLNGABnStJ91ISHFBMdNe5OLEUQZ6B/view
案例 2 錯誤日志:--master yarn
以下 2 行重復,程序沒有終止
INFO yarn.Client: Application report for application_1594339922772_0012 (state: ACCEPTED)
INFO yarn.SparkRackResolver: Got an error when resolving hostNames. Falling back to /default-rack for all
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.