![](/img/trans.png)
[英]Why Kubernetes pods are failing randomly when their limits overlap?
[英]Kubernetes Pods only assigned to one node when setting resource limits
我運行一個帶有pod的服務,它可以接收任務,處理它然后完成。 目前它是一個測試環境,因此每個pod沒有真正的CPU /內存使用,但是對於未來,我想設置pod的限制。
一次運行所有pod(假設為100)會導致我的兩個節點(每個節點有2個CPU和2GB內存)按預期平均分配。
出於測試目的,我現在設置每個pod的限制:
limits:
memory: "1000Mi"
cpu: "1"
requests:
memory: "1000Mi"
cpu: "1"
因為控制器/系統正在占用節點的一些可用資源,所以我希望在每個節點上一個pod運行直到成功,然后安排下一個。 實際上,只有一個節點用於一個接一個地處理所有100個pod。
有人知道可能導致這種行為的原因嗎? 沒有設置其他限制。
謝謝!
最后我發現問題是“kubectl describe node ...”命令給出的錯誤信息。 這表明節點(1225076KB)比節點上實際可用的內存(0.87GB)更多。 不知道為什么(特別是因為兩個工人的設置是相同的,但他們仍然有不同的可用內存量),但這似乎是問題所在。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.