私のデータ セットは、整数の配列を持つフィールドを含むドキュメントで構成されています。フィールドにある範囲の要素が含まれるオブジェクトを当てにしている場合、indexBounds の値が高いほどインデックス スキャンのパフォーマンスが低下するようです (ただし、範囲によってスキャンされる値の量は同じです)。
テストデータ:
for (var i = 0; i < 100000; i++) db.foo.insert({tts:(function(){var val = [];for(var j = 0; j < 100; j++) {val[j] = j} return val;})()});
db.foo.ensureIndex({tts:1});
クエリ:
> db.foo.find({tts:{$elemMatch:{$gte:10, $lte:10}}}).explain()
{
"cursor" : "BtreeCursor tts_1",
"isMultiKey" : true,
"n" : 100000,
"nscannedObjects" : 100000,
"nscanned" : 100000,
"scanAndOrder" : false,
"indexOnly" : false,
"nYields" : 1,
"nChunkSkips" : 0,
"millis" : 313,
"indexBounds" : {
"tts" : [
[
10,
10
]
]
},
"server" : "localhost:27017"
}
> db.foo.find({tts:{$elemMatch:{$gte:90, $lte:90}}}).explain()
{
"cursor" : "BtreeCursor tts_1",
"isMultiKey" : true,
"n" : 100000,
"nscannedObjects" : 100000,
"nscanned" : 100000,
"scanAndOrder" : false,
"indexOnly" : false,
"nYields" : 1,
"nChunkSkips" : 0,
"millis" : 1286,
"indexBounds" : {
"tts" : [
[
90,
90
]
]
},
"server" : "localhost:27017"
}
実際、このフィールドには 200 近くの値があり、要求された範囲が最高の境界を持つ場合、クエリは最大 10 倍遅くなります。(フィールドの各値は一意の範囲に属し、すべての範囲で同じ量のオブジェクト (100000) が選択され、クエリはこの範囲の部分範囲に対してのみ実行されます)
コレクション統計:
> db.foo.stats()
{
"ns" : "test.foo",
"count" : 100000,
"size" : 122400128,
"avgObjSize" : 1224.00128,
"storageSize" : 140763136,
"numExtents" : 12,
"nindexes" : 2,
"lastExtentSize" : 40071168,
"paddingFactor" : 1,
"systemFlags" : 1,
"userFlags" : 0,
"totalIndexSize" : 254845920,
"indexSizes" : {
"_id_" : 3262224,
"tts_1" : 251583696
},
"ok" : 1
}
この問題の回避策はありますか?
ありがとう。