问题我有一个三节点 ceph 集群,每个集群有 6 个 OSD。 该集群是使用Cephadm引导的,使用 Docker 作为容器引擎。 我不得不对我的一台主机进行一些维护,所以在将所有服务从主机上移除后我将其置于维护模式。 我更改了 NIC 上的一些设置、运行更新并重新启动了节点。 我能够从另一台主 ...
问题我有一个三节点 ceph 集群,每个集群有 6 个 OSD。 该集群是使用Cephadm引导的,使用 Docker 作为容器引擎。 我不得不对我的一台主机进行一些维护,所以在将所有服务从主机上移除后我将其置于维护模式。 我更改了 NIC 上的一些设置、运行更新并重新启动了节点。 我能够从另一台主 ...
我有一个 CephFS Octopus 系统,它运行着两个活动的元数据服务器 (MDS) 和七个备用服务器以应对任何故障。 两个活动的 MDS 运行在具有更多 RAM 和 CPU 能力的更新的机器上,而备份 MDS 运行在较旧的系统上。 备份的MDS中,优先接管一个(原因无所谓,硬件能力好就行)。 ...
我已经使用cephadm安装了ceph 包括监控栈prometheus , alertmanager , node-exporter 目前我正在尝试为 alertmanager 添加一个telegram接收器(从 v0.24.0 开始支持 Telegram,因此我手动将mgr/container_i ...
我正在使用 HTTP 发送数据(相关文件)。 如果我使用Ceph加密这些数据,有可能吗? ...
我不确定如何使用 Spring 创建存储桶Ceph 。 有没有我可以选择的文件? 如何获得这个 accessKey 和 secretKey? ...
如何在不安装任何插件的情况下默认请求Windows Windows 10中的HTTP? curl -X POST http://you-url.com/api/search ...
Cephadm Pacific v16.2.7 我们的 Ceph 集群卡在 pgs 降级和 osd 关闭原因:- OSD 已满我们尝试过的东西将 vale 更改为最大可能组合(不确定是否做对了?)backfillfull < nearfull、nearfull < full 和 ful ...
我用 ceph 16.2.7 创建了一个集群,并添加了带有集群扩展的 OSD,然后我按照以下步骤从 crush map 中删除了一些 OSD。 此外,选项 --all-available-devices 是非托管的。 在此处输入图像描述#ceph orch apply osd --all-avai ...
在 Cephadm 的 v15 和 v16 上,我都能够成功引导具有 3 个节点的集群。 我发现在单个主机上添加超过 26 个 OSD 会导致 cephadm orch daemon add osd 永远挂起并且不会崩溃。 我的每个节点都有 60 个磁盘,lsblk 将通过 /dev/sdbh 报告 ...
我想知道这两条规则之间的区别: 和 据我了解,第一条规则 rack_rule 将 rack 作为故障域,因此在每个 PG 中,我们都会有来自不同机架的 osd。 例如,如果我有 2 个机架并且复制大小 = 2,我将有一个 PG [osd.1,osd.2],这 2 个 osd 应该来自不同的机架。 在 ...
我陷入了死锁。 想通过一个centos8节点扩展一个在centos7上运行的ceph nautilus集群。 我使用 ceph-deploy 进行部署:现在的问题: ceph-deploy (2.0.1) 不将 centos8 (8.3.2011) 识别为受支持的平台: [ceph_deplo ...
我通过 cephadm 创建了集群,并希望执行命令 blow enter image description here 似乎需要停止OSD进程才能正常工作,但是当我停止它时,容器被删除了。我该怎么办? 谢谢! ...
我正在尝试在 Amazon SageMaker 上调整开源项目mmfashion ,该项目需要CEPH模块作为后端。 不幸的是pip install ceph不起作用。 唯一的解决方法是通过在我的容器中运行手动构建ceph 源代码: 这确实允许我成功导入ceph 。 但是在从 Amazon S3 ...
我按照https://docs.ceph.com/en/latest/cephadm/install/中的以下步骤在 Centos 8.1 上设置了一个 ceph 集群 在执行上述命令后,我发现 ceph 需要 docker 或 podman 才能运行。 于是我从https://docs.dock ...
我用 cephadm 配置了一个简单的 Ceph 集群,如下所示: 它工作正常。 现在我想在 192.168.1.0/24 上建立一个集群网络。 我试过ceph config set global cluster_network 192.168.1.0/24但没有任何效果。 我在辅助 NIC 上看 ...