1

RavenDB に多数 (~50,000) の小さなデータを格納する必要があります。このデータを読み返すと、毎回全体を読むことになります。書くときは、全体を書くことも、個々の部分を書くこともできました。

データは次のようになります。

public class Item
{
    public int  Id    { get; set; }
    public long Value { get; set; }
}

Dictionary<int, long>オブジェクトのコレクションではなく、単一のドキュメント ラッパーとしてこれを簡単に格納できItemます。

これらのアプローチのうち、RavenDB でより効率的なのはどれですか?

データ セットが最大 500,000 に増加した場合、効率の違いは誇張されますか (読み取りの場合)?

4

1 に答える 1

2

それらのデータは何ですか?それらはどのように接続されていますか?どのくらいの頻度でこのセットを読むつもりですか? あなたはいくつの異なるセットを持っていますか?どのくらいの頻度で変更されますか? 常に一度にすべてが必要ですか?

問題は、このモデルにおけるトランザクションの境界が何であるかです。一部を変更すると全体がある程度変わる限り、1 つのドキュメントにまとめることは理にかなっています。

ドキュメントが大きくなりすぎても、キャッシュできる場合は問題ありません。Aggressive Caching を参照してください。

于 2012-06-21T21:09:15.207 に答える