テスト目的で、次のconfファイルを使用して、単一のホストにcephファイルシステムを作成しようとしました
[global]
log file = /var/log/ceph/$name.log
pid file = /var/run/ceph/$name.pid
[mon]
mon data = /srv/ceph/mon/$name
[mon.mio]
host = penny
mon addr = 127.0.0.1:6789
[mds]
[mds.mio]
host = penny
[osd]
osd data = /srv/ceph/osd/$name
osd journal = /srv/ceph/osd/$name/journal
osd journal size = 1000 ; journal size, in megabytes
[osd.0]
host = penny
devs = /dev/loop1
/dev/loop1 は XFS でフォーマットされており、実際には 500Mbs のファイルです (ただし、それほど重要ではありません)。
sudo ceph -s
2013-12-12 21:14:44.387240 pg v111: 198 pgs: 198 active+clean; 8730 bytes data, 79237 MB used, 20133 MB / 102 GB avail
2013-12-12 21:14:44.388542 mds e6: 1/1/1 up {0=mio=up:active}
2013-12-12 21:14:44.388605 osd e3: 1 osds: 1 up, 1 in
2013-12-12 21:14:44.388738 log 2013-12-12 21:14:32.739326 osd.0 127.0.0.1:6801/8834 181 : [INF] 2.30 scrub ok
2013-12-12 21:14:44.388922 mon e1: 1 mons at {mio=127.0.0.1:6789/0}
しかし、ファイルシステムをマウントしようとすると
sudo mount -t ceph penny:/ /mnt/ceph
mount error 5 = Input/output error
通常の回答は ceph-mds が実行されていないことを示していますが、実際には機能しています:
root 8771 0.0 0.0 574092 4376 ? Ssl 20:43 0:00 /usr/bin/ceph-mds -i mio -c /etc/ceph/ceph.conf
実際、私は以前にこれらの指示http://blog.bob.sh/2012/02/basic-ceph-storage-kvm-virtualisation.htmlを逐語的に使用して以前に動作させることができましたが、再試行した後、同じ結果が得られました問題。何が失敗したかについて何か考えはありますか?
コメントで示されているように更新すると、dmesg が問題を示します
[ 6715.712211] libceph: mon0 [::1]:6789 connection failed
[ 6725.728230] libceph: mon1 127.0.1.1:6789 connection failed