0

titan API を使用していくつかのグラフ データを読み込んでおり、cassandra をストレージ バックエンドとして構成しています。私のグラフ データには約 100 万個の頂点があります。このデータを N カサンドラ ノードに分散させたいと考えています。

そのため、同じシステムに 3 つのノードを構成し、各ノードの IP を127.0.0.1127.0.0.2および とし127.0.0.3ました。nodetool status の出力は、3 つの IP すべてと負荷が均等に共有されていることを示しています。

グラフをロードしようとしましたが、データ全体が 3 つのノードすべてで複製されます (ノード 1 で 1M 頂点、ノード 2 で 1M 頂点、ノード 3 で 1M 頂点)。ノード 1 で 1M/3、ノード 2 で 1M/3、ノード 3 で 1M/3 のように、データを 3 つのノードすべてに分散させたいと考えています。

の出力DESCRIBE KEYSPACE TITAN:

CREATE KEYSPACE titan WITH replication = {'class': 'SimpleStrategy', 'replication_factor': '1'} AND durable_writes = true;

nodetool ステータスの出力:

Status=Up/Down |/ State=Normal/Leaving/Joining/Moving -- Address Load Tokens Owns Host ID Rack 
UN 127.0.0.1 7.79 MB 1 ? f5a689f0-f4c1-4f68-ab81-58066e986cd4 rack1 
UN 127.0.0.2 229.79 KB 1 ? b6940e7e-b6eb-4d1f-959e-b5bd0f5cea15 rack1 
UN 127.0.0.3 7.11 MB 1 ? a3244b16-a73c-4801-868f-05de09615ed9 rack1

負荷を共有するための正しい構成の詳細を教えてください。何か問題がある場合は修正してください。

ありがとう、ハリ

4

0 に答える 0