820 万を超えるドキュメントを含むコレクションがあります。クエリで 200 万から 300 万のそれらを削除する必要があります (1 つまたは 2 つの属性がインデックス化されています)。
私の懸念は、oplog が容量を超えて大きくなり、バックアップからすべてを再シードする必要があるため、セカンダリが遅れることです。
このようなものでしょうか...
db.my_collection.remove({attribute_1:'xyz'},false);
また
db.my_collection.remove({attribute_1:'xyz',attribute_2:'abc'},false);
(実際にドキュメントを削除する以外に) セカンダリに悪影響を与えない単一の oplog エントリになりますか? それとも、レプリケーションのために 200 万から 300 万の操作に変換されますか?
答えは、それは 1 つの操作であり、断片化から回復する必要があるかもしれないが、必ずしも oplog/2 次同期の問題ではないということだと思います。