AFAIK ceph 有 2 个特定的流量路径: 客户端和ceph节点之间的流量, ceph 节点之间的流量(Inter Ceph-node)。 所以,假设我的网络是这样的 笔记: kube-node-4 是一个不作为 rook 节点参与的 kubernet worker。 只是一个ceph客 ...
AFAIK ceph 有 2 个特定的流量路径: 客户端和ceph节点之间的流量, ceph 节点之间的流量(Inter Ceph-node)。 所以,假设我的网络是这样的 笔记: kube-node-4 是一个不作为 rook 节点参与的 kubernet worker。 只是一个ceph客 ...
我有一个包含几个节点的新集群。 每个节点都是一个 Linux VM,在 dev/sdc1 上安装了一个 6GB 设备,我想使用它。 当我尝试创建 rook ceph 集群时,rook-ceph-osd-prepare pod 日志显示它正在跳过 dev/sdc1 因为“Has BlueStore ...
我已经使用官方 helm 图表部署了 rook。 在我的 Kubernetes 节点上,主机文件系统是 xfs,但 rook 默认需要一个 ext4 文件系统。 所以我用值xfs覆盖了舵图中的参数cephFileSystems[0].storageClass.parameters.csi.stora ...
我有一个带有三个控制节点和三个工作节点的 Kubernetes 集群。 要安装 Ceph,我使用的是 rook。 安装后,Ceph 集群中仅包含工作程序节点 - 而不是 controller 节点。 配置片段: 是否有一种简单的方法可以将 controller 节点也包含在 Ceph 集群中? 或 ...
我将此 bluestore_min_alloc_size 应用到 4096,无论我如何应用设置,它都没有被守护进程接收,我也尝试在应用设置后重新启动所有守护进程 pod,但没有效果。 头文件 您可以看到 60.80k 对象的存储大小为 209MB,但使用的是 3.8Gb,即 64x60.8x ...
我在 kube.netes 中使用 rook-ceph。 我部署了 rook-ceph-operator 和 rook-ceph-cluster Helm 图表。 我有 5 个工作节点,每个节点有 2 个 OSD。 每个 OSD 有 100GB。 因此,我总共有 5*200GB = 1TB 原始存 ...
我正在使用掌舵图部署应用程序。 每当我部署图表时,我都面临 StorageClass rook-ceph 的问题,我的 pod 处于挂起状态,因为 pvc 没有被创建。 pvc 的日志是 ...
我已经使用 3 VPS 设置了 3 个节点 kubernetes 并安装了 rook/ceph。 当我跑步时 我得到以下结果 我试过了 结果是 ceph osd status没有给我任何结果这是我使用的 yaml 文件 当我使用以下命令时 结果是 我的磁盘分区 我在这里做错了什么? ...
启用 istio sidecar 时,我们在 Kubernetes 中遇到 rook-ceph 部署问题。 问题是 OSD 没有出现,因为 crashcollector 没有正确初始化。 如下图卡住了。 当我们在这个 pod 上执行 kubectl describe 时,我们会遇到以下问题: 还注意 ...
我有 Kubernetes 1.18 和 rookio 设置,这个 pod 运行了一段时间。 其中一个节点出于某种原因退出Ready状态。 我重新启动了节点,现在它处于Ready状态。 但是 Pod 停留在ContainerCreating状态。 它正在等待安装 rookio PVC 。 吊舱状态 ...
我知道您不应该在单个节点上创建 ceph 集群。 但这只是一个小型私人项目,因此我没有资源或需要真正的集群。 但我想建立一个集群,但我遇到了一些问题。 目前我的集群已关闭,并且出现以下健康问题。 和 ceph 版本 15.2.3 (d289bbdec69ed7c1f516e0a093594580a ...
我无法在 cephfs 上启动和运行我的 Kube 注册表。 我正在使用 rook 来设置这个集群。 如您所见,我无法附加该卷。 知道什么会导致这个问题吗? 任何帮助表示赞赏。 kube-registry.yaml Storagelass.yaml kubectl 描述 pod --name ...
如果 1 个 OSD 崩溃,rook-ceph 最终会尝试将丢失的数据复制到仍在工作的 OSD 上还是等待所有 OSD 再次恢复正常? 让我们说是,这样我就可以解释我是如何计算的: 我首先为 kubernetes PVC 配置了 1,71 TB 和 3 个 745 GB 的节点(总共 2,23 T ...
我正在将 rook-ceph 部署到 minikube 集群中。 一切似乎都在运作。 我向虚拟机添加了 3 个未格式化的磁盘并将其连接。 我遇到的问题是,当我运行 ceph status 时,我收到一条健康提示消息,告诉我“1 pg 尺寸过小”。 我该如何解决这个问题? 文档 ( https://d ...
我有以下Volume :Name: pvc-c8a0c1ee-b9e6-11e9-9ffa-0cc47ab04738 Namespace: rook-ceph-system Labels: <none> Annotations: <none&g ...
尝试按照本指南在 kubernetes 上安装 rook-ceph: https://rook.io/docs/rook/v1.3/ceph-quickstart.html 当我检查所有的豆荚 做一些其他操作 创建文件系统 再检查一遍 看不到 pod 为rook-ceph-osd- 。 并且ro ...
我似乎在 Fedora-coreos 上的 k8s 集群中部署 rook ceph 时遇到问题。 我希望有人能帮我解决这个问题,我用谷歌搜索过,但找不到解决方案。 下面是我的集群 yaml 和错误。 在部署自定义 cluster.yaml 之前,我使用了默认的 common.yaml 和 opera ...
我几乎用这个命令添加了回购协议 然后我运行命令 最初创建了运算符,但随后变成了 crashloopbackoff 错误。 下面是日志。 关于如何解决这个问题的任何想法? ...
我目前正在使用 Rook v1.2.2 在我的 Kubernetes 集群 (v1.16.3) 上创建一个 Ceph 集群,但我未能在我的 CrushMap 上添加机架级别。 我想从: 类似于: 就像官方 rook 文档中所解释的( https://rook.io/docs/rook/v1 ...
我正在尝试在现有存储 Class 名称之上/基于其创建持久卷。 然后我想把PVC贴在上面; 使他们被束缚。 运行下面的代码,会给我我想要的“sftp-pv-claim”,但它没有绑定到我的 PV(“sftp-pv-storage”)。 它的状态是“待定”。 我收到的错误消息是:“Persistent ...