0

RBD ボリュームを別の Ceph クラスターにコピーするエレガントな方法はありますか?

ボリューム (機能は 2.5T で 18G のみ使用) を別の Ceph クラスターにコピーして、qemu-img 2.5 バージョンまたは qemu-img 6.0 バージョンで変換時間を計算します。

qemu-img [2.5 or 6.0] convert -p -f raw rbd:pool_1/volume-orig_id:id=cinder:conf=1_ceph.conf:keyring=1_ceph.client.cinder.keyring -O raw rbd:pool_2/volume-new_id:id=cinder:conf=2_ceph.conf:keyring=2_ceph.client.cinder.keyring [-n -m 16 -W -S 4k]

テストqemu-img convert結果:

qemu-img 2.5は、オプション パラメータなしで2 時間 40 分を費やします。

ここに画像の説明を入力

qemu-img 6.0 は、オプション パラメーター ( -m 16 -W -S 4k )を使用して3 時間 3 分を費やします。

ここに画像の説明を入力

質問:

1、なぜ 2.5 バージョンの書き込みはディスク機能 (18G) のみを使用するのに、6.0 バージョンはホールディスク 2.5T を書き込むのですか?

2、qemu-img (2.5 または 6.0 バージョン) を使用して RBD ボリュームを別の Ceph クラスターに高速変換する方法、または他のアプローチ方法はありますか?

4

1 に答える 1