私のテストから、1秒あたり約500の挿入、200のクエリ、400の更新を取得します。これらの数を増やすために何を微調整できるのだろうか。
私は、他の人が彼らのテストで数千または数万の挿入を達成できることを読みました。これは私のテストよりもはるかに優れています。基本的なものが足りないのかな?
だから、ここに事実があります:
- デフォルト設定でwin32ビットmongodbv2.0.3を使用しています
- 春のmongoを備えたJavaドライバー(2.7.3)、(fsyncを強制しない)
- 挿入と、push、pull、inc、dec、set、setなどのアトミック更新を組み合わせて実行する
- そして、これらすべてを50万回繰り返します。
- 意図は、挿入や更新などのユーザーアクションをシミュレートすることです
- 特定のインデックスは定義されていませんが、デフォルトではIDに常に一意のインデックスがあると思いますか?
- Eclipse IDEで実行されるJavaアプリは、mongodサーバーと同じマシンで実行されています
- H / W仕様:コアi5、mem 4GB、thinkpadエッジ
- Javaプロセスは約280MBかかり、ループの過程でその数で安定していることに気付きました
開始時間は:2012-03-0821:50:16
そして、mongostatを使用して監視し、の時間に達した後22:05:10
、未完成のアプリケーションを終了します..これがmongostatの最後の出力です
insert query update delete getmore command flushes mapped vsize res faults locked % idx miss % qr|qw ar|aw netIn netOut conn time
499 200 400 0 0 100 0 1023m 1.06g 581m 145 8.5 0 0|0 0|0 645k 97k 3 22:05:01
503 201 403 0 0 102 0 1023m 1.06g 582m 154 10.7 0 0|0 0|1 651k 98k 3 22:05:02
520 208 415 0 0 105 0 1023m 1.06g 582m 176 11.1 0 0|0 0|0 671k 101k 3 22:05:03
504 202 403 0 0 102 0 1023m 1.06g 582m 167 7.2 0 0|0 0|0 651k 98k 3 22:05:04
524 209 419 0 0 106 0 1023m 1.06g 582m 147 8.3 0 0|0 0|0 675k 102k 3 22:05:05
534 213 428 0 0 107 0 1023m 1.06g 583m 176 7.4 0 0|0 0|0 690k 103k 3 22:05:06
531 213 424 0 0 108 0 1023m 1.06g 584m 160 4.9 0 0|0 0|0 685k 104k 3 22:05:07
533 213 427 0 0 107 0 1023m 1.06g 584m 164 6.9 0 0|0 0|0 689k 103k 3 22:05:08
518 208 414 0 0 105 0 1023m 1.06g 585m 158 7.3 0 0|0 0|0 669k 101k 3 22:05:09
521 208 417 0 0 105 0 1023m 1.06g 585m 154 4.7 0 0|0 0|0 673k 101k 3 22:05:10
そして、挿入番号を確認しました:
> db.myCollection.find().size();
90575
そしてこれは私のドキュメントが挿入された例であり、その過程で更新なども行われます
> db.myCollection.findOne().pretty();
{
"_id" : "b146189a-56a4-4035-8245-c4bd6dc2bd22",
"something1" : "my class is cool !",
"something2" : {
"value" : "this is a statement blah blah",
"name" : "myStatement"
},
"something3" : {
"size" : {
"value" : 0,
"name" : "size"
},
"value" : [
"6810cb0c-fa3e-4ca9-8a27-8432f2d1e828",
"a8276d05-a796-4c43-bc74-edc06d074099"
],
"name" : "myids"
},
"something4" : {
"myattr" : {
"value" : "something",
"name" : "name"
},
"attr" : {
"content" : {
"value" : "another another body body content content",
"name" : "content"
},
"contentId" : "b146189a-56a4-4035-8245-c4bd6dc2bd22",
"name" : "something"
},
"subsubchildchild" : {
"size" : {
"value" : 0,
"name" : "size"
},
"value" : [ ],
"name" : "subBodies"
},
"myId" : "b146189a-56a4-4035-8245-c4bd6dc2bd22",
"name" : "hiccups"
},
"something5" : {
"value" : false,
"name" : "hahaha"
},
"something6" : {
"name" : "okay this is just a test"
},
"something7" : {
"value" : false,
"name" : "remove me !"
},
"something8" : {
"size" : {
"value" : 0,
"name" : "size"
},
"value" : [ ],
"name" : "guess what"
},
"something9" : {
"size" : {
"value" : 0,
"name" : "anotherSize"
},
"value" : [ ],
"name" : "tarantula"
},
"something10" : {
"value" : 8,
"name" : "my exam score"
},
"something11" : {
"size" : {
"value" : 0,
"name" : "justAnotherSize"
},
"value" : [ ],
"name" : "myReference"
},
"something12" : {
"size" : {
"value" : 0,
"name" : "size"
},
"value" : [ ],
"name" : "myOtherReference"
},
"something13" : {
"value" : "8b78fff0-50f5-4992-9972-89f9d944fee7",
"name" : "user"
},
"something14" : {
"dateTime" : "2012-03-08 21:50:17.480000000"
},
"something15" : {
"value" : false,
"name" : "lovely"
}
}
そして、これが私のdb統計です:
> db.stats();
{
"db" : "qa",
"collections" : 7,
"objects" : 815197,
"avgObjSize" : 622.2093211824872,
"dataSize" : 507223172,
"storageSize" : 610770944,
"numExtents" : 57,
"indexes" : 5,
"indexSize" : 64197952,
"fileSize" : 1056702464,
"nsSizeMB" : 16,
"ok" : 1
}
また、好奇心からの別の質問..約90kレコードを持つ私のメインコレクションサイズ、およびサイズが大きくてはならない他の非実質的なコレクションから判断すると、この場合、約1TBのfileSizeを持つことは合理的ですか?ファイルサイズを小さくするためにできることはありますか?
あなたの考えを共有してください。