[英]Kubernetes Run multiple python script in Same Pod
我有 4-5 個 Python 腳本,它們是 Kafka 的消費者/生產者,需要一直運行到時間結束。
我可以為每個腳本創建容器,但隨后我將擁有 4-5 個容器,如果出現任何故障,Kubernetes 將管理它。
但是我想在單個 Pod 中運行所有這些,如果任何腳本失敗,那么應該只啟動該腳本而不是整個 Pod,整個 Pod 反過來將啟動在完美運行的腳本中發生的所有當前事務。
有沒有辦法實現它? 或者什么是最好的解決方案 - 在每個容器中單獨運行或在單個容器中運行它們。
如果將來有更多腳本進來,那么我該怎么做才能實現所需的行為。
1 個 pod 中的 movig 腳本中的原因- 1 個腳本 ~ 1 個容器 ~ 400 MB。 現在 5 個腳本 ~ 5 個容器 ~ 2 GB。
這不是建議的模式! 每個容器一個進程是建議的一個!
在同一個容器中運行所有腳本將使用相同數量的 RAM 或多或少 (~2GB) 容器的開銷非常少。
您可以使用一些 init 進程(如 s6 https://github.com/just-containers/s6-overlay)運行所有 5 個腳本,s6 將只負責啟動已停止的腳本
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.