簡體   English   中英

通過傳遞憑據在 AWS EMR 上運行 spark

[英]run spark on AWS EMR by passing credentials

我是 EMR 的新手,並嘗試使用command-runner.jar spark-submit --deploy-mode cluster --class com.xx.xx.className s3n://mybuckets/spark-jobs.jar類的東西作為一個步驟啟動 Spark 作業command-runner.jar spark-submit --deploy-mode cluster --class com.xx.xx.className s3n://mybuckets/spark-jobs.jar
但是,spark 作業需要憑據作為環境變量,我的問題是將憑據作為環境變量傳遞給 spark 作業的最佳方法是什么。
謝謝!

看看這里: AWS EMR 4.0 - 如何添加自定義 JAR 步驟來運行 shell 命令和這里: http ://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-hadoop-script.html 試試像這樣運行步驟(參數):/usr/bin/spark-submit --deploy-mode cluster --class

我來到你的問題谷歌搜索自己的解決方案。 現在作為臨時解決方案,我將憑證作為 cmd 行參數傳遞。 將來我想添加一個自定義引導腳本,該腳本將從服務中獲取數據並創建 ~/.aws/credentials 和配置文件。 我希望這會有所幫助,或者如果您發現任何其他選項,請在此處發布。

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM