100 TB のデータを格納し、集計でクエリを実行するには、どのようなアーキテクチャが必要ですか? ノード数は?ノードあたりのディスク サイズは? ベストプラクティスは何ですか?
毎日 240GB が書き込まれますが、同じ量のデータが削除されるため、サイズは変わりません。
または、データの保存と高速なグループ クエリについて別の考えはありますか?
関連する質問を参照してください。
トップアンサーからの引用:
MongoDBのサイトの「本番環境へのデプロイ」ページに興味があるかもしれません。インフラストラクチャ情報とともにリストされた多くのプレゼンテーション。例えば:
http://blog.wordnik.com/12-months-with-mongodbによると、ノードごとに3TBを保存しています。
HBaseを強くお勧めします。
Facebook は、 2010 年 11 月には 1 日 150 億件のメッセージを処理していたメッセージ サービスにそれを使用しています。
私たちは大規模なデータ セットに対して MongoDB をテストしましたが、最終的に HBase を使用することになり、何ヶ月も楽しく使用しています。