0

ローカルホストにシャード mongo db 環境をセットアップしました。3 つの構成サーバーと 2 つのシャード mongo インスタンスと 1 つの mongos があります。

クラスターが起動したら、次の一連のコマンドを実行します。

sh.addShard( "127.0.0.1:27010")
sh.addShard( "127.0.0.1:27011")

a = {"_id" : 1, "value" : 1}
b = {"_id" : 2, "value" : 2}
c = {"_id" : 3, "value" : 3}
d = {"_id" : 4, "value" : 4}

use foobar;
db.foo.insert(a);
db.foo.insert(b);
db.foo.insert(c);
db.foo.insert(d);

シャーディング用にデータベースを有効にし、インデックスなどを作成します。

sh.enableSharding("foobar");
db.foo.ensureIndex({"value":"hashed"});
sh.shardCollection("foobar.foo", { value: "hashed" } )

上記のすべての操作の結果は成功です。

しかし、私がしたら: db.foo.stats()

すべてのデータが分散されずに 1 つのシャードだけで終わっていることがわかります。そして走っている

db.printShardingStatus();

生成:

--- Sharding Status --- 
sharding version: {
"_id" : 1,
"version" : 3,
"minCompatibleVersion" : 3,
"currentVersion" : 4,
"clusterId" : ObjectId("52170e8a7633066f09e0c9d3")
}
 shards:
{  "_id" : "shard0000",  "host" : "127.0.0.1:27010" }
{  "_id" : "shard0001",  "host" : "127.0.0.1:27011" }
 databases:
{  "_id" : "admin",  "partitioned" : false,  "primary" : "config" }
{  "_id" : "foobar",  "partitioned" : true,  "primary" : "shard0000" }
    foobar.foo
        shard key: { "value" : "hashed" }
        chunks:
            shard0000   1
        { "value" : { "$minKey" : 1 } } -->> { "value" : { "$maxKey" : 1 } } on : shard0000 Timestamp(1, 0) 

興味深いことに、空のコレクションから始めて、データを追加する前にシャーディングを有効にすると、結果は大きく異なります。

db.foo.stats();
{
"sharded" : true,
"ns" : "foobar.foo",
"count" : 4,
"numExtents" : 2,
"size" : 144,
"storageSize" : 16384,
"totalIndexSize" : 32704,
"indexSizes" : {
    "_id_" : 16352,
    "value_hashed" : 16352
},
"avgObjSize" : 36,
"nindexes" : 2,
"nchunks" : 4,
"shards" : {
    "shard0000" : {
        "ns" : "foobar.foo",
        "count" : 1,
        "size" : 36,
        "avgObjSize" : 36,
        "storageSize" : 8192,
        "numExtents" : 1,
        "nindexes" : 2,
        "lastExtentSize" : 8192,
        "paddingFactor" : 1,
        "systemFlags" : 1,
        "userFlags" : 0,
        "totalIndexSize" : 16352,
        "indexSizes" : {
            "_id_" : 8176,
            "value_hashed" : 8176
        },
        "ok" : 1
    },
    "shard0001" : {
        "ns" : "foobar.foo",
        "count" : 3,
        "size" : 108,
        "avgObjSize" : 36,
        "storageSize" : 8192,
        "numExtents" : 1,
        "nindexes" : 2,
        "lastExtentSize" : 8192,
        "paddingFactor" : 1,
        "systemFlags" : 1,
        "userFlags" : 0,
        "totalIndexSize" : 16352,
        "indexSizes" : {
            "_id_" : 8176,
            "value_hashed" : 8176
        },
        "ok" : 1
    }
},
"ok" : 1
}

問題は、既存のコレクションを分割した場合、何かが足りないかどうかです。

4

2 に答える 2

0

現在、データセットが非常に小さいため、データのチャンクは 1 つしかありません。MongoDB はMigration Thresholdsに従ってデータのバランスを取り、バランサーの影響を最小限に抑えます。さらにデータを追加してみてください:) バランサーはデータを分割し、時間の経過とともにチャンクのバランスをとります。

コレクション内のデータがないと、各シャードから始まる一連のチャンクが割り当てられるため、2 番目のケースではシャード全体でデータが表示されます。

于 2013-08-23T09:51:10.470 に答える