簡體   English   中英

使用 Kubernetes、Python 和 Apache-Spark 3.2.0 在客戶端模式下運行 spark 的兩個單獨圖像?

[英]Two separate images to run spark in client-mode using Kubernetes, Python with Apache-Spark 3.2.0?

我使用從 Python 的分發文件夾運行的腳本部署了 Apache Spark 3.2.0:

./bin/docker-image-tool.sh -r <repo> -t my-tag -p ./kubernetes/dockerfiles/spark/bindings/python/Dockerfile build

我可以使用 Spark-Submit 在 K8s 下創建一個容器就好了。 我的目標是運行為客戶端模式與本地模式配置的 spark-submit,並期望為執行程序創建額外的容器。

我創建的圖像是否允許這樣做,或者我是否需要使用 docker-image 工具創建第二個圖像(沒有 -p 選項)並在不同的容器中進行配置?

事實證明,如果您正在運行 PySpark,則只需要一張圖片。 使用客戶端模式,代碼會為您生成執行程序和工作程序,一旦您創建了 spark-submit 命令,它們就會運行。 Spark 2.4 版的重大改進!

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM