
[英]Cephadm Ceph OSD fails to start after Reboot of host
問題我有一個三節點 ceph 集群,每個集群有 6 個 OSD。 該集群是使用Cephadm引導的,使用 Docker 作為容器引擎。 我不得不對我的一台主機進行一些維護,所以在將所有服務從主機上移除后我將其置於維護模式。 我更改了 NIC 上的一些設置、運行更新並重新啟動了節點。 我能夠從另一台主 ...
[英]Cephadm Ceph OSD fails to start after Reboot of host
問題我有一個三節點 ceph 集群,每個集群有 6 個 OSD。 該集群是使用Cephadm引導的,使用 Docker 作為容器引擎。 我不得不對我的一台主機進行一些維護,所以在將所有服務從主機上移除后我將其置於維護模式。 我更改了 NIC 上的一些設置、運行更新並重新啟動了節點。 我能夠從另一台主 ...
[英]Ceph Rados : Facing errors during dependencies installation on Ubuntu
在install-deps.sh腳本的依賴項安裝步驟中,我幾乎沒有遇到錯誤。 我嘗試運行 apt-get update 然后運行 apt-get install -f 但錯誤仍然存在。 另外,我嘗試使用ubuntu aptitude安裝依賴項,但仍然沒有成功。 這里需要很少的輸入。 謝謝! ...
[英]wget -c --content-disposition results in 403 forbidden
使用預簽名 url 從 ceph object 存儲下載文件會在使用選項-c和--content-disposiiton時導致 403 錯誤。 調試 output 顯示它請求一個HEAD ,這就是它失敗的原因,但如果這些選項被自己使用,它只請求GET並成功。 那么為什么它請求 object 的HE ...
[英]In a Ceph FS setup, how do I order the backup MDS?
我有一個 CephFS Octopus 系統,它運行着兩個活動的元數據服務器 (MDS) 和七個備用服務器以應對任何故障。 兩個活動的 MDS 運行在具有更多 RAM 和 CPU 能力的更新的機器上,而備份 MDS 運行在較舊的系統上。 備份的MDS中,優先接管一個(原因無所謂,硬件能力好就行)。 ...
[英]Ceph alertmanager config
我已經使用cephadm安裝了ceph 包括監控棧prometheus , alertmanager , node-exporter 目前我正在嘗試為 alertmanager 添加一個telegram接收器(從 v0.24.0 開始支持 Telegram,因此我手動將mgr/container_i ...
[英]Is there solution for viewing chunks distribution in ceph's pools with erasure code?
根據 此頁面的圖片,ceph 將對象拆分為塊並將它們寫入 osds。 要使用復制算法查看對象分布,我可以使用 ceph ceph pg dump或ceph osd map等命令。 但是我找不到查看數據塊分布的命令。 ...
[英]Trying to mount Kubernetes volume to ceph rbd storage but getting FailedMount error
將 Kubernetes 卷掛載到 ceph 存儲 rbd 時顯示 FailedMount 錯誤無法附加或掛載卷:未掛載的卷=[數據],未附加的卷=[數據 kube-api-access-mxlkm]:等待條件超時。 檢查下面的附加圖像在此處輸入圖像描述 ...
[英]How to configure artifactory CEPH S3 with Direct Upload Mechanism?
Artifactory:7.38.8 它與最終上傳機制配合良好。 我嘗試將其更改為直接上傳機制,但我無法上傳任何文件。 我的 binarystore.xml 配置: 錯誤信息: ...
[英]how to seperate traffic in Rook
AFAIK ceph 有 2 個特定的流量路徑: 客戶端和ceph節點之間的流量, ceph 節點之間的流量(Inter Ceph-node)。 所以,假設我的網絡是這樣的 筆記: kube-node-4 是一個不作為 rook 節點參與的 kubernet worker。 只是一個ceph客 ...
[英]How to get better performace in ProxmoxVE + CEPH cluster
我們從 5.0(現在是 6.4-15)開始運行 ProxmoxVE,我們注意到每當有一些繁重的讀/寫時性能會下降。 我們有 9 個節點,7 個帶有 CEPH 和 56 個 OSD(每個節點上 8 個)。 OSD 是硬盤驅動器 (HDD) WD Gold 或更好 (4~12 Tb)。 具有 64/1 ...
[英]PySpark write data to Ceph returns 400 Bad Request
在 ceph 存儲桶中寫入數據時,我遇到了 pySpark 配置問題。 使用以下 Python 代碼片段,我可以從 Ceph 存儲桶讀取數據,但是當我嘗試在存儲桶內寫入時,出現以下錯誤: Pyspark 代碼(不工作):from pyspark.sql import SparkSession i ...
[英]Ceph gateway for Azure blob support
ceph 網關是否支持 Azure blob 存儲? 在下面的鏈接文檔中,他們提到只支持 S3 和 Swift API。 我們可以用於 azure blob 嗎? https://docs.ceph.com/en/quincy/radosgw/index.html 或者任何開源對象存儲網關 ...
[英]Transfer files to Rook Ceph
我有一個 Harbor docker 部署,圖像存儲在/data/registry下。 我還有一個 K8s 集群,上面部署了一個 Harbor Helm 圖表。 我使用 rook-ceph 作為我的注冊表存儲解決方案。 如何將/data/registry下的文件傳輸到我的 rook-ceph 持久 ...
[英]how many volumes can ceph support?
您可以使用 ceph-volume lvm create --filestore --data example_vg/data_lv --journal example_vg/journal_lv 創建 ceph 卷,但我想知道 ceph 可以支持多少卷,可以無限嗎? ...
[英]Shrink Kubernetes persistent volumes
我確實有多個持久卷需要縮小以降低托管成本。 我已經發現 Kubernetes 不提供這樣的選項。 我還嘗試將卷從快照克隆或還原到新的較小卷 - 結果相同( requested volume size XXX is less than the size XXX for the source snaps ...
[英]How to keep proxmox VM / CT up and runnig after a cluster node goes down in HA Cluster without VM/CT access loss even one second?
我剛剛用 3 個節點配置了 proxmox HA 集群/Ceph(監視器、管理器、OSD)。 一個節點宕機后,VM/CT完美切換到集群的另一個節點。 但問題是,切換到另一個節點后,VM/CT 狀態需要 5 分鍾左右才能恢復。 所以我想問的是:在切換到集群的另一個節點后,我還應該配置什么來保持 VM ...
[英]GWCLI Not Working After Deleting Pool in Ceph
我在一些 VM 主機上運行 ovirt,同時我的存儲運行 Ceph。 最近我在 ovirt 上遇到了一個問題,它讓我將 VM 存儲重新創建為一個新池並刪除舊池。 今天,我需要擴展我的媒體存儲,gwcli 回來了 我去了谷歌,我能找到的唯一說明是清除 gateway.conf 並重建: 快速但不安全地 ...
[英]openstack cinder VolumeSizeExceedsAvailableQuota tips mismatch volume type
創建卷將顯示相同的錯誤提示,無論使用什么--type選項。 有時創建ceph_ssd卷類型時,會提示gigabytes_ceph_ssd quota exceeds。 像這樣: 這有什么問題嗎? 我該如何解決這個問題? 是我誤會了什么嗎? ...
[英]how openstack cinder distribute volume without special type while configure two ceph backend pools
我發現cinder-volume會根據它們的虛擬或實際可用容量將卷分配到池中,同時請求創建一個沒有特殊卷類型的新卷並且有兩個或更多后端池而沒有設置default_volume_type配置選項。 實際上,在我的例子中,有一個ceph_common池為MAX AVAIL保留30 TiB ,另一個是ce ...
[英]Rook-Ceph OSD pods not getting created
我有一個包含幾個節點的新集群。 每個節點都是一個 Linux VM,在 dev/sdc1 上安裝了一個 6GB 設備,我想使用它。 當我嘗試創建 rook ceph 集群時,rook-ceph-osd-prepare pod 日志顯示它正在跳過 dev/sdc1 因為“Has BlueStore ...