2

私のceph rawスペースがどこに行ったのか理解できません。

cluster 90dc9682-8f2c-4c8e-a589-13898965b974
     health HEALTH_WARN 72 pgs backfill; 26 pgs backfill_toofull; 51 pgs backfilling; 141 pgs stuck unclean; 5 requests are blocked > 32 sec; recovery 450170/8427917 objects degraded (5.341%); 5 near full osd(s)
     monmap e17: 3 mons at {enc18=192.168.100.40:6789/0,enc24=192.168.100.43:6789/0,enc26=192.168.100.44:6789/0}, election epoch 734, quorum 0,1,2 enc18,enc24,enc26
     osdmap e3326: 14 osds: 14 up, 14 in
      pgmap v5461448: 1152 pgs, 3 pools, 15252 GB data, 3831 kobjects
            31109 GB used, 7974 GB / 39084 GB avail
            450170/8427917 objects degraded (5.341%)
                  18 active+remapped+backfill_toofull
                1011 active+clean
                  64 active+remapped+wait_backfill
                   8 active+remapped+wait_backfill+backfill_toofull
                  51 active+remapped+backfilling
recovery io 58806 kB/s, 14 objects/s

OSD ツリー (各ホストには 2 つの OSD があります):

# id    weight  type name       up/down reweight
-1      36.45   root default
-2      5.44            host enc26
0       2.72                    osd.0   up      1
1       2.72                    osd.1   up      0.8227
-3      3.71            host enc24
2       0.99                    osd.2   up      1
3       2.72                    osd.3   up      1
-4      5.46            host enc22
4       2.73                    osd.4   up      0.8
5       2.73                    osd.5   up      1
-5      5.46            host enc18
6       2.73                    osd.6   up      1
7       2.73                    osd.7   up      1
-6      5.46            host enc20
9       2.73                    osd.9   up      0.8
8       2.73                    osd.8   up      1
-7      0               host enc28
-8      5.46            host archives
12      2.73                    osd.12  up      1
13      2.73                    osd.13  up      1
-9      5.46            host enc27
10      2.73                    osd.10  up      1
11      2.73                    osd.11  up      1

実際の使用法:

/dev/rbd0        14T  7.9T  5.5T  59% /mnt/ceph

プールのサイズ:

osd pool default size = 2

プール: ceph osd lspools

0 data,1 metadata,2 rbd,

ラドスDF

pool name       category                 KB      objects       clones     degraded      unfound           rd        rd KB           wr        wr KB
data            -                          0            0            0            0           0            0            0            0            0
metadata        -                          0            0            0            0           0            0            0            0            0
rbd             -                15993591918      3923880            0       444545           0        82936      1373339      2711424    849398218
  total used     32631712348      3923880
  total avail     8351008324
  total space    40982720672

生の使用量は、実際の使用量の 4 倍です。私が理解しているように、それは 2x でなければなりませんか?

4

2 に答える 2

-1

rbd イメージが 1 つしかないと思います。「ceph osd lspools」の結果は、3 つのプールがあり、プールの 1 つに「metadata」という名前が付けられていることを示していました (cephfs を使用していた可能性があります)。/dev/rbd0 が表示されたのは、イメージをマップしたためですが、他のイメージも使用できます。イメージを一覧表示するには、「rbd list -p」を使用できます。「rbd info -p」で画像情報を見ることができます。

于 2016-10-28T06:32:07.807 に答える
-1

はい、2x である必要があります。実際の生の使用量が 7.9T であることは確かではありません。マップされたディスクでこの値を確認するのはなぜですか?

これは私のプールです:


pool name                 KB      objects       clones     degraded      unfound           rd        rd KB           wr        wr KB
admin-pack           7689982         1955            0            0            0       693841      3231750     40068930    353462603
public-cloud       105432663        26561            0            0            0     13001298    638035025    222540884   3740413431
rbdkvm_sata      32624026697      7968550        31783            0            0   4950258575 232374308589  12772302818 278106113879
  total used     98289353680      7997066
  total avail    34474223648
  total space   132763577328

使用済みスペースの合計量は、プール rbdkvm_sata の使用済みスペースの 3 倍 (+-) であることがわかります。

ceph -s同じ結果も示しています:


pgmap v11303091: 5376 pgs, 3 pools, 31220 GB data, 7809 kobjects
            93736 GB used, 32876 GB / 123 TB avail

于 2017-04-21T16:35:24.307 に答える