2

私は AWS EC2 ミディアム オンデマンド インスタンスで couchdb データベースをセットアップしています。その中には約 400 万のオブジェクトがあり、1 秒あたり約 100 オブジェクトの速度で増加しています。

その上にいくつかの map/reduce クエリを書きたいのですが、マップ ジョブが完了するまでに時間がかかります。そのため、データを他のマシンにコピーし、マスター マシン上のすべてのデータを削除してクリーンな状態に保つ必要があるかどうか疑問に思っています。データがコピーされる 2 番目のインスタンスにマップ ジョブを書き込む必要があります。また、このデータを s3 インスタンスに移動して、ここに 1 週​​間分のデータを保持することも考えています。

私は正しい方向に考えていますか

4

2 に答える 2

0

独自のViewServerを作成するか、利用可能な実装の1つを使用して、パフォーマンスに役立つかどうかをテストできます。

于 2012-10-09T15:12:27.563 に答える
0

残念ながら、このような大きなデータベースでは、組み込みの reduce 関数しか使用できません。

  • _和
  • _カウント
  • _stats

これらの関数は、JavaScript の関数よりもはるかに高速に動作します。そして、これは巨大なデータベースに対して可能な唯一のオプションです。

http://wiki.apache.org/couchdb/Built-In_Reduce_Functions

于 2012-10-09T12:01:07.407 に答える