0

現在、mongodb を使用して、40,000,000 アイテム近くの非常に大きなサイズのファイル (90G) を保持しています。

このファイルを読み取って解析し、すべての項目を mongodb に挿入します (私のプログラミング言語は perl で、insert ではなく batch_insert で、1 つの項目を 1 つの mongodb ドキュメントにマップします)。

挿入する前に、すでにインデックスを事前に作成しています(約10個のインデックスキー)。

挿入速度が私のニーズ (1 秒あたり 200 から 400 アイテム) を満たしていないことがわかりました。

インデックス キーが多すぎると、特にコレクションのサイズが非常に大きくなると、挿入が確実に遅くなります。

ですから、すべてのデータを db にダンプした後、インデックスを作成できるのではないかと思います。この方法が利用可能かどうか、またはこの方法で間違いなく時間を節約できるかどうか、誰でも教えてくれますか?

4

1 に答える 1

0

大きな挿入の前にインデックスを削除してから、後で再度インデックスを作成することができます。劇的に速くなる可能性があります。

于 2013-12-19T20:30:29.233 に答える