0

テスト目的で、次のconfファイルを使用して、単一のホストにcephファイルシステムを作成しようとしました

[global]
        log file = /var/log/ceph/$name.log
        pid file = /var/run/ceph/$name.pid
[mon]
        mon data = /srv/ceph/mon/$name
[mon.mio]
host = penny
mon addr = 127.0.0.1:6789
[mds]
[mds.mio]
host = penny
[osd]
osd data = /srv/ceph/osd/$name
osd journal = /srv/ceph/osd/$name/journal
osd journal size = 1000 ; journal size, in megabytes
[osd.0]
host = penny
devs = /dev/loop1

/dev/loop1 は XFS でフォ​​ーマットされており、実際には 500Mbs のファイルです (ただし、それほど重要ではありません)。

 sudo ceph -s
2013-12-12 21:14:44.387240    pg v111: 198 pgs: 198 active+clean; 8730 bytes data, 79237 MB used, 20133 MB / 102 GB avail
2013-12-12 21:14:44.388542   mds e6: 1/1/1 up {0=mio=up:active}
2013-12-12 21:14:44.388605   osd e3: 1 osds: 1 up, 1 in
2013-12-12 21:14:44.388738   log 2013-12-12 21:14:32.739326 osd.0 127.0.0.1:6801/8834 181 : [INF] 2.30 scrub ok
2013-12-12 21:14:44.388922   mon e1: 1 mons at {mio=127.0.0.1:6789/0}

しかし、ファイルシステムをマウントしようとすると

sudo mount -t ceph penny:/ /mnt/ceph
mount error 5 = Input/output error

通常の回答は ceph-mds が実行されていないことを示していますが、実際には機能しています:

root      8771  0.0  0.0 574092  4376 ?        Ssl  20:43   0:00 /usr/bin/ceph-mds -i mio -c /etc/ceph/ceph.conf

実際、私は以前にこれらの指示http://blog.bob.sh/2012/02/basic-ceph-storage-kvm-virtualisation.htmlを逐語的に使用して以前に動作させることができましたが、再試行した後、同じ結果が得られました問題。何が失敗したかについて何か考えはありますか?

コメントで示されているように更新すると、dmesg が問題を示します

[ 6715.712211] libceph: mon0 [::1]:6789 connection failed
[ 6725.728230] libceph: mon1 127.0.1.1:6789 connection failed
4

1 に答える 1

1

127.0.0.1 を使用してみてください。カーネルがホスト名を解決しているように見えますが、127.0.1.1 は奇妙で、IPv6 ループバックに応答していない可能性があります。

于 2013-12-12T20:58:36.230 に答える