現在、mongodb を使用して、40,000,000 アイテム近くの非常に大きなサイズのファイル (90G) を保持しています。
このファイルを読み取って解析し、すべての項目を mongodb に挿入します (私のプログラミング言語は perl で、insert ではなく batch_insert で、1 つの項目を 1 つの mongodb ドキュメントにマップします)。
挿入する前に、すでにインデックスを事前に作成しています(約10個のインデックスキー)。
挿入速度が私のニーズ (1 秒あたり 200 から 400 アイテム) を満たしていないことがわかりました。
インデックス キーが多すぎると、特にコレクションのサイズが非常に大きくなると、挿入が確実に遅くなります。
ですから、すべてのデータを db にダンプした後、インデックスを作成できるのではないかと思います。この方法が利用可能かどうか、またはこの方法で間違いなく時間を節約できるかどうか、誰でも教えてくれますか?