17

レプリケーション ファクターが 2 の 3 ノードの cassandra クラスターがありました。ノードは dsc1.2.3 または dsc1.2.4 のいずれかを実行していました。各ノードの num_token 値は 256 で、initial_token はコメント化されています。この 3 ノード クラスタは完全にバランスが取れていました。つまり、それぞれが約 30% のデータを所有していました。

ノードの 1 つがクラッシュしたため、新しいノードを開始し、nodetool はクラッシュしたノードを削除しました。新しいノードがクラスターに追加されましたが、現在は 2 つの古いノードにほとんどのデータ (47.0% と 52.3%) があり、新しいノードにはデータの 0.7% しかありません。

nodetool status の出力は次のとおりです。

Datacenter: xx-xxxx
===================
Status=Up/Down
|/ State=Normal/Leaving/Joining/Moving
--  Address           Load       Tokens  Owns   Host ID                               Rack
UN  10.xxx.xxx.xxx    649.78 MB  256     47.0%  ba3534b3-3d9f-4db7-844d-39a8f98618f1  1c
UN  10.xxx.xxx.xxx    643.11 MB  256     52.3%  562f7c3f-986a-4ba6-bfda-22a10e384960  1a
UN  10.xxx.xxx.xxx    6.84 MB    256     0.7%   5ba6aff7-79d2-4d62-b5b0-c5c67f1e1791  1c

このクラスターのバランスを取るにはどうすればよいですか?

4

2 に答える 2

4

新しいノードがブートストラップされていないようです。cassandra.yamlに追加auto_bootstrap=trueしましたか?

ブートストラップしたくない場合はnodetool repair、新しいノードで実行してnodetool cleanupから、分散が公平になるまで他の 2 つのノードで実行できます。

于 2015-04-29T03:34:03.377 に答える