0

問題はもう少し変わっています。私は glusterfs クラスターを持っています - 4 つのノードといくつかのボリュームがあるとします。ノードの 1 つが再起動した場合、次の 2 つのシナリオが考えられます。

  • ノードは、前のノードと同じ IP アドレスとすべてのファイルで再起動します。その場合、このノードは、他の努力なしで glusterfs クラスターに接続されます。

  • ノードは以前のデータで再起動しますが、今回はノードの IP が変更されます。そのため、他のノードのピア ステータスには、切断されたノードが 1 つ表示されます。これは、以前に切断されたノードです。しかし、起動した現在のノードは実行されていません。glusterd でさえ、このノードでは実行できませんでした。

私の質問は、以前のノードの代わりにデータを既に持っている新しいノードをどのように接続できるかです。

**これまでに試したこと

  • 新しいノードの /var/lib/glusterd フォルダーを削除しました。glusterd を再起動しました。別の適切なノードから繰り返します。古いノードを新しいノードに置き換えてみましたが、うまくいきませんでした。
4

1 に答える 1

0

これは、他のノードでは、切断されたノードの IP アドレスがまだ同じ古いものであるためです。これを試してください。

  • Node1 から Node2 と Node3 を通常どおりプローブします ("gluster peer probe node2"、"gluster peer probe node3")。この後、Node1 は Node2 と Node3 の IP によって参照されます。
  • Node2 または Node3 のいずれかから、Node1 でリバース プローブを実行します ("gluster peer probe node1")。これにより、IP がどこでもホスト名に更新されます (メモリ内、ディスク上、およびすべてのノード)。

参照: http://lists.gluster.org/pipermail/gluster-users/2015-March/021255.html

于 2017-06-14T13:01:33.780 に答える