[英]How to pass configuration from spark-submit to yarn cluster?
我想知道有沒有辦法通過火花提交來臨時更改紗線作業的配置?
問題是因為我們的Spark over yarn群集的歷史記錄服務器僅允許管理員訪問,這對用戶檢索自己的作業日志不方便。 我了解到mapreduce-default.xml中的“ mapreduce.job.acl-view-job
”可以更改特定作業的ACL。 當我使用spark-submit
來啟動作業時,“-conf”是為spark本身保留的,但是如何從命令行和應用程序一起設置yarn的配置呢?
您可以通過添加帶有--conf
的spark.hadoop.
來修改Spark的Hadoop配置(通過SparkContaxt.hadoopConfiguration
獲得) spark.hadoop.
前綴。
在你的例子中
spark-submit --conf spark.hadoop.mapreduce.job.acl-view-job=YOUR_ACL_STATEMENT ...
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.