[英]kubernetes nodes keep rebooting when using rook volumes
幾天前,當我的節點不斷重啟時,我遇到了一個問題
我的堆棧:
使用 kubeadm (v1.17.1-00) 構建的 1 個主節點和 2 個工作節點 k8s-cluster
Ubuntu 18.04 x86_64 4.15.0-74-通用
法蘭絨 cni 插件 (v0.11.0)
Rook (v1.2) cephfs 用於存儲。 Ceph 部署在我的應用程序所在的同一個集群中
我能夠運行 ceph 集群,但是當我嘗試部署使用我的車卷的應用程序時,突然我的 pod 開始死亡
我在使用kubectl describe pods/name
命令時收到此消息:
Pod sandbox changed, it will be killed and re-created
在 k8s 事件中,我得到了:
<Node name> has been rebooted
一段時間后,節點開始活躍,但最終在 2-3 分鍾內死亡。
我試圖排空我的節點並連接回我的集群,但之后另一個節點出現了這個錯誤。
我通過命令journalctl -p 3
了故障節點的系統錯誤日志。
並發現,日志中充斥着以下消息: kernel: cache_from_obj: Wrong slab cache. inode_cache but object is from ceph_inode_info
kernel: cache_from_obj: Wrong slab cache. inode_cache but object is from ceph_inode_info
。
谷歌搜索這個問題后,我發現了這個問題: https : //github.com/coreos/bugs/issues/2616
事實證明,cephfs 不適用於某些版本的 Linux 內核!! 對我來說,這些都不起作用:
Cephfs 不適用於某些版本的 Linux 內核。 升級你的內核。 我終於讓它在 Ubuntu 18.04 x86_64 5.0.0-38-generic 上工作了
Github 問題,這對我有幫助: https : //github.com/coreos/bugs/issues/2616
這確實是一個棘手的問題,我一直在努力尋找解決方案,我花了很多時間試圖了解發生了什么。 我希望這些信息對某些人有所幫助,因為 google 上的信息並不多。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.