簡體   English   中英

Kubernetes 在同一個 Pod 中運行多個 python 腳本

[英]Kubernetes Run multiple python script in Same Pod

我有 4-5 個 Python 腳本,它們是 Kafka 的消費者/生產者,需要一直運行到時間結束。

我可以為每個腳本創建容器,但隨后我將擁有 4-5 個容器,如果出現任何故障,Kubernetes 將管理它。

但是我想在單個 Pod 中運行所有這些,如果任何腳本失敗,那么應該只啟動該腳本而不是整個 Pod,整個 Pod 反過來將啟動在完美運行的腳本中發生的所有當前事務。

有沒有辦法實現它? 或者什么是最好的解決方案 - 在每個容器中單獨運行或在單個容器中運行它們。

如果將來有更多腳本進來,那么我該怎么做才能實現所需的行為。

1 個 pod 中的 movig 腳本中的原因- 1 個腳本 ~ 1 個容器 ~ 400 MB。 現在 5 個腳本 ~ 5 個容器 ~ 2 GB。

這不是建議的模式! 每個容器一個進程是建議的一個!

在同一個容器中運行所有腳本將使用相同數量的 RAM 或多或少 (~2GB) 容器的開銷非常少。

您可以使用一些 init 進程(如 s6 https://github.com/just-containers/s6-overlay)運行所有 5 個腳本,s6 將只負責啟動已停止的腳本

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM