[英]Kubernetes spark-submit
我正在嘗試使用 kuberenets 作為spark
集群管理器。 我還想將容器日志發送到splunk
。 現在我確實在同一個命名空間中部署了監控堆棧(fluent-bit、prometheus 等),它的工作方式是,如果您的pod
具有某個environment_variable
,它將開始讀取日志並將其推送到splunk 。 我無法找到的是如何設置環境變量並填充它
bin/spark-submit \
--deploy-mode cluster \
--class org.apache.spark.examples.SparkPi \
--master k8s://https://my-kube-cluster.com \
--conf spark.executor.instances=2 \
--conf spark.app.name=spark-pi \
....
....
....
--conf spark.kubernetes.driverEnv.UID="set it to spark driver pod id" \
local:///opt/spark/examples/jars/spark-examples_2.11-2.4.4.jar
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.