各ノードに 2 つの 1 TB OSD が含まれるこの 3 つの OSD ノードのセットアップで、データの回復力を備えた最大の使用可能な容量を達成したいとします。
双方向レプリケーションで 3 つの Ceph ノードを実行しても安全ですか?
2wayを使うメリット・デメリットは?データのスプリットブレインを引き起こしますか?
最後になりましたが、双方向レプリケーションで実行されるドメインの耐障害性は何ですか?
ありがとう!
各ノードに 2 つの 1 TB OSD が含まれるこの 3 つの OSD ノードのセットアップで、データの回復力を備えた最大の使用可能な容量を達成したいとします。
双方向レプリケーションで 3 つの Ceph ノードを実行しても安全ですか?
2wayを使うメリット・デメリットは?データのスプリットブレインを引き起こしますか?
最後になりましたが、双方向レプリケーションで実行されるドメインの耐障害性は何ですか?
ありがとう!
場合によっては、(キャッシュからの) SSD ディスクが同時にまたは 1 つずつ故障する場合など、3 つのレプリカでも十分でないことがあります。
http://lists.ceph.com/pipermail/ceph-users-ceph.com/2015-October/005672.html
2 つの OSD の場合、最小のレプリカを 1 つ、最大のレプリカを 2 つ手動で設定することもできます (3 つの OSD のうち 1 つの OSD が失敗した場合は、自動設定できませんでした)。
osd pool default size = 2
# オブジェクトを 2 回書き込む
osd pool default min size = 1
# デグレード状態で 1 コピーの書き込みを許可
ただし、このコマンドceph osd pool set mypoolname set min_size 1
は、デフォルト設定だけでなく、プールに対して設定します。
n = 4
ノードごとに 1 つの osd と 1 つの mon があり、replica と 3 つの osd の設定がmin_size 1
失敗size 4
する可能性がある場合、1 つの mon だけが失敗する可能性があります (モニター クォーラムは半分以上が存続することを意味します)。4 + 1
障害が発生したモニターが 2 つある場合は、モニターの数が必要です (少なくとも 1 つが OSD なしで外部にある必要があります)。モニター (4 つの外部モニター) の場合、3 つの mon が失敗する可能性があるため、 osd とmon を8
持つ 3 つのノードでも失敗する可能性があります。モニターの設定が可能かどうかわかりません。1
1
8
したがって、それぞれ 1 つのモニターと osd を持つ 3 つのノードの場合、適切な設定はレプリカmin_size 2
またはsize 3
2 だけです。失敗する可能性があるノードは 1 つだけです。外部モニターを使用している場合、(これは非常に危険です) に設定min_size
すると、またはノードがダウンする可能性があります。しかし、1 つのレプリカ (コピーはなく、元のデータのみ) があれば、すぐに仕事を失う可能性があります。1
size
2
1
2