0

私はキャッシュを開発する必要がある金融データベースに取り組んでいます。多くの生のリアルタイム データを含む MySQL データベースがあります。このデータは、Flask (Python) を使用して HTTP API 経由で提供されます。

生データが返される前に、Python コードによって操作されます。この操作には大量のデータが含まれる可能性があるため、キャッシュ システムが適切です。

  1. キャッシュされたデータは変更されません。たとえば、誰かが 2000 年 1 月 1 日から現在までの時間範囲のデータを照会した場合、データは操作され、返され、2000 年 1 月 1 日から現在までの特別に操作されたデータとしてキャッシュに格納されます。同じ操作されたデータが後で再度照会される場合、キャッシュは 2000 年 1 月 1 日から最後に照会された時点までの値を取得し、その期間全体の操作の必要性を排除します。次に、その時点から現在までの新しいデータを操作し、それもキャッシュに追加します。

  2. データサイズは巨大であってはなりません (最大で 5GB 未満)。

  3. 日付範囲を使用してキャッシュから取得できる必要があります。

どのDBを見ればいいですか?モンゴDB? レディス?CouchDB?

ありがとう!

4

1 に答える 1

0

このような小さなデータセットにBigDataソリューションを使用することは無駄のように思われ、それでも必要なレイテンシーを叫ばない可能性があります。必要なのは、MongoDBやCouchDBのようなビッグデータソリューションではなく、分散キャッシング(またはメモリ内データグリッド)のようです。

(私はその貢献者の1人です)あなたのニーズに完全に一致しているように見える主要なソリューションの1つは、XAPElasticCachingです。詳細については、http ://www.gigaspaces.com/datagridを参照してください。

そして、DataGridを使用してMySQLをスケーリングする方法に関するこのケースを正確に説明する投稿を見つけることができます: "Scaling MySQL"-http: //www.gigaspaces.com/mysql

于 2012-05-26T19:30:09.693 に答える