簡體   English   中英

處理Rethinkdb Docker Swarm的多個持久卷

[英]Handling multiple persistant volumes for a Rethinkdb Docker Swarm

我目前正在雲服務器上使用RethinkDB ,方法是在安裝時手動加入每個服務器。 我有興趣轉向Swarm方法,以便更輕松地進行擴展和故障轉移。 目前的方法規模繁瑣。

在當前的手動方法中,我只是在每個服務器上為RDB創建一個本地文件夾,並作為卷來安裝以存儲其數據。 但是,使用Swarm意味着我需要更動態地處理卷。 每個容器都需要一個不同的卷,以便在出現錯誤時將數據分開。

有關如何處理此方案的任何建議? 到目前為止,我見過的很多教程都提到了Flocker來管理持久存儲,但是我看不到它是動態處理的。

目前我正在努力應對這種情況。 我用GlusterFS創建了一個臨時修復程序。

你要做的是在所有Docker節點上安裝GlusterFS並掛載文件夾。 這樣,數據就存在於所有節點上。 但如果你有很多寫作,這不太理想。 由於Gluster處理數據復制以防止數據丟失的方式,這可能會很慢。 它很穩固,但我對速度有一些問題。

在你的情況下,我建議調查Flocker。 Flocker是一個卷插件,可在容器移動到另一個主機時遷移您的數據。 我沒有任何經驗,但在我的情況下,Flocker的概念無用,我需要在多個主機上的多個容器中的數據(只讀)這是Gluster發揮作用的地方

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM