0

EC2 インスタンスで mdadm を使用して RAID1 デバイスを作成します。mdadm のバージョンは v3.3.2 です。

/sbin/mdadm --create /dev/md1 --level=1 --raid-devices=2  /dev/xvdf /dev/xvdk

これは mdstat の出力です。

cat /proc/mdstat 
Personalities : [raid1] 
md1 : healthy raid1 xvdk[1] xvdf[0]
      41594888 blocks super 1.2 [2/2] [UU]

それは正常です。この RAID1 デバイスには、xvdk と xvdf の 2 つのメンバー ディスクがあることがわかります。

ただし、「mdadm -D」出力で MD デバイスのメンバーが /dev/sd* になることがわかりました。

mdadm -D /dev/md1
/dev/md1:
        Version : 1.2
  Creation Time : Fri Dec 11 06:29:50 2015
     Raid Level : raid1
     ...

    Number   Major   Minor   RaidDevice State
       0     202       82        0      active sync   /dev/sdf
       1     202      162        1      active sync   /dev/sdk

次に、これらのリンクが自動的に作成されていることがわかります。

ll /dev/sd*
lrwxrwxrwx. 1 root root 4 Dec 11 06:29 /dev/sdf -> xvdf
lrwxrwxrwx. 1 root root 4 Dec 11 06:29 /dev/sdk -> xvdk

これはmdadmによって行われると思います。私は前にこの問題を見たことがありません。

MD メンバーのデバイス名を変更する必要はないと思います。混乱するからです。この問題を回避するには?どうもありがとう!

4

1 に答える 1

0

私はこの問題を自分で解決しました。EC2 インスタンスには、xvd ドライブのリンクを自動的に作成できる UDEV ルールがあります。

$cat /etc/udev/rules.d/99-ami-udev.rules
KERNEL=="xvd*", PROGRAM="/usr/sbin/ami-udev %k", SYMLINK+="%c"

このルールを削除すると、すべて問題ありません。

于 2016-06-20T04:23:53.080 に答える