![](/img/trans.png)
[英]HDInsight-Spark (spark-submit) fails - java.lang.NoSuchMethodError: com.microsoft.azure.storage.blob.CloudBlockBlob.startCopy
[英]spark-submit job FAILS in Azure HDInsight in --deploy-mode cluster when --py-files are provided
在 Azure HDIinsight 集群中指定 --files 时,面临与 Spark 提交失败相同的问题
但是在上面的帖子中看不到任何答案。
问题:Spark-submit 作业在以下情况下失败:--master yarn --deploy --master yarn --deploy-mode cluster
和--py-files ZIPfile.zip
提供它在--master yarn --deploy-mode client
模式下工作正常。
Azure HDInsight 4.0 有问题吗?
我提到了链接。 这可能与无法创建目录的权限问题有关。 引用的目录/mnt/resource/hadoop/yarn/local/usercache/<username>/appcache/<applicationID>
用于存储中间结果,然后根据是写入路径还是存储到 HDFS/memory分别在临时表中。 用户可能没有权限。 一旦工作完成,它就会被冲洗掉。 在特定工作节点的路径/mnt/resource/hadoop/yarn/local/usercache
中为用户提供正确的权限应该可以解决问题。
您提到它在 spark-shell 或作为客户端的部署模式下成功执行。 所以让我向你解释一下有什么区别
星火客户端
星火集群
那么,关于您的问题,文件/jar 是分布在节点上还是放置在 Azure 存储(WN 可以访问它的地方)中? 如果不是,请将文件放在所有工作节点的相同目录(如头节点)中,然后执行。 您可以利用 HDInsight 群集的script action
将文件放置在节点中。 如果仍然失败,请粘贴完整的错误跟踪。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.