[英]Spark-Scala read application.conf file based on environment like Prod/UAT etc
我在AWS EMR上运行了一个spark应用程序。 我们在AWS上有不同的环境,比如prod,uat,dev等。我创建了带有所需变量的application.conf文件,例如s3 buket,iam role等。但显然这些变量对于每个env都是不同的。
如何将不同的conf文件传递给spark-submit,这样我就不必在部署期间为每个环境更改application.conf文件?
根据@ozeebee在这篇文章中给出的答案,我们也可以将它用于spark-submit。
在spark-submit中,您需要在spark.driver.extraJavaOptions中指定属性,如下所示:
spark-submit
--conf "spark.driver.extraJavaOptions=-Dconfig.resource=devtest.conf"
--class thesyscat.query.ingest.eventenrichment.EventEnrichSparkApp
--master yarn
--deploy-mode client
<jar_location>
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.