0

最近、membase を使用してテストを実行し、6,000 万個のキーを増やしました。各キーのサイズは 20 ~ 30 バイトで、値は整数の値よりも小さくなっています。このクラスターは 3 つの 16 GB ボックスにまたがり、15 GB は membase の単一のバケット (レプリケーション = 1) 専用でした。ビルドはmembase-server-community_x86_64_1.7.1.164 ビットの ubuntu lucid ボックス上にあります。

結果:

当初、1,000 万個のキーが 3 GB のメモリに常駐していました。(3mil キー/GB) @6000 万キーが 45 GB のメモリに常駐。(1.33mil キー/GB)

比較すると、redis は 900 万から 1000 万のキー/GB @ 6000 万のキーを処理します。この GB あたりのキーの比率は、データセットのサイズに関係なく一貫しています。

質問:

主要な重いデータセットに直面した場合、Membase は適切にスケーリングされないようです。このユース ケースで Membase に役立つチューニング/構成はありますか?

ありがとう。

PS私は redis から membase に移行しました。これは、後者の方がキャッシュ障害に対する信頼性が高いように思われたためです。ただし、大規模なデータセットでのこのパフォーマンスの低下は、少し苦痛です。

4

0 に答える 0