繁体   English   中英

不使用spark-submit.sh时,Spark如何知道纱线资源管理器在哪里运行?

[英]How does Spark know where the Yarn Resource Manager is running when not using spark-submit.sh?

我对Spark还是很陌生,我试图在纱线群集模式下从我的应用程序内部启动Spark作业(不使用spark-submit.sh),并且试图弄清楚该作业如何了解Yarn ResourceManager的位置在跑。 我已经做好了

SparkConf sConf = new SparkConf().setMaster("yarn-cluster").set("spark.driver.memory", "10g");

但是我无法配置的是Yarn ResourceManager的位置。 关于我如何去做的任何想法? 我有一个群集设置,其中Yarn RM与应用程序不在同一台计算机上运行。

查看Spark Launcher API- org.apache.spark.launcher Java文档
或在此处阅读有关内容-SparkLauncher-启动Spark应用程序

这些属性可以在HADOOP_CONF_DIRYARN_CONF_DIR环境变量中的yarn-site.xml找到,这些变量在OS级别或spark-env.sh

在非HA部署中,您正在寻找yarn.resourcemanager.address

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM