問題タブ [mdadm]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
1 に答える
2069 参照

bash - 自動 yes に raid5 アレイ スクリプト

アレイraid5をインストールするスクリプトに取り組んでいます。スクリプトが尋ねたときに auto=yes を挿入するのに問題があります: 配列の作成を続行したい場合。--auto=yes ( http://www.linuxmanpages.com/man8/mdadm.8.php ) を試しましたが、どこに配置すればよいかわかりません。

0 投票する
1 に答える
1942 参照

linux - mdadm: array disappearing on reboot, despite correct mdadm.conf

I'm using Ubuntu 13.10 and trying to create a RAID 5 array across 3 identical disks connected to SATA ports on the motherboard. I've followed every guide and and used both the built-in Disks GUI app and mdadm at the command line, and despite everything I cannot get the array to persist after reboot.

I create the array with the following command:

Then I watch /proc/mdstat for awhile while it syncs, until I get this:

To update the mdadm config file, I run the following:

This adds the essential line to my config file:

Everything seems correct, but when I reboot, the array is gone!

0 投票する
0 に答える
442 参照

python - Python の shell=True subprocess.Popen キーワード引数が mdadm コマンドを壊す

mdadmPython スクリプトから制御しようとしていて、次のような呼び出しがあります。

mdadmそれから不平を言うmdadm: You have listed more devices (5) than are in the array(4)!

shell=True(または)を使用するとos.system、問題なく動作します。例えば:

なしで呼び出しが失敗するのはなぜshell=Trueですか?

編集:これは、私が分割して渡す完全な文字列ですsubprocess.Popen:

0 投票する
0 に答える
179 参照

unix - Raid 5 、サブアレイ用ではない目的のビットマップを書き込みますか?

4x 6TB ディスクを備えた Intel Rapid Storage Raid 5 を持っています (すべてのスペースは mdadm を使用して ubuntu 14.04 で RAID として使用されます)。

回復が速くなるように、書き込みを意図したビットマップを追加したいと思います。

私は試した:

これはmdadmを出力します :ビットマップをサブアレイにまだ追加できません

どうすればこれを達成でき、どこに問題がありますか? 唯一のオプションは外部ビットマップ ファイルですか?

助けてくれてありがとう!

0 投票する
1 に答える
650 参照

recovery - mdadm RAID5 のリカバリ: 5 台中 4 台のディスクが削除済みとしてマークされています

5 つのディスクで構築されたソフトウェア RAID5 があります。mondorescue で解決しようとしていたシステムにいくつかの問題がありました。「nuke」タイプのリカバリを使用したため、RAID5 アレイが破壊されました。今 mdadm -D /dev/md0 は、4つのディスクが「削除」され、1つのディスクがまだ「アクティブ」であることを示しています。「削除された」ディスクにはスーパーブロックが見つからなかったため、mdadm はこのアレイを元に戻すことができませんでした。「削除された」ディスクでスーパーブロックを回復する機会はありますか?

すべてのディスクに不良ブロックはまったくなく、すべてクリーンです。助けてください。

mdadm --出力を調べます:

0 投票する
1 に答える
72 参照

amazon-ec2 - ec2でMDメンバー名を変更

EC2 インスタンスで mdadm を使用して RAID1 デバイスを作成します。mdadm のバージョンは v3.3.2 です。

これは mdstat の出力です。

それは正常です。この RAID1 デバイスには、xvdk と xvdf の 2 つのメンバー ディスクがあることがわかります。

ただし、「mdadm -D」出力で MD デバイスのメンバーが /dev/sd* になることがわかりました。

次に、これらのリンクが自動的に作成されていることがわかります。

これはmdadmによって行われると思います。私は前にこの問題を見たことがありません。

MD メンバーのデバイス名を変更する必要はないと思います。混乱するからです。この問題を回避するには?どうもありがとう!

0 投票する
1 に答える
845 参照

ubuntu - mdadm raid 5 が成長した後、再形成が resize2fs を呼び出すのを待つ必要がありますか?

タイトルがすべてを物語っています。ubuntuに3つのパーティションmdadm raid 5があります。ここで、4 番目のパーティションを追加しました。すべてのパーティションが物理ディスク全体をカバーし、各ディスクのサイズは 4 TB です。使用中のファイルシステムは ext4 です。

mdadmがraid 5を成長させた後、wikiはfsckチェックを行ってからサイズ変更するように言います

resize2fs が機能するには、mdadm reshape が完了するまで待つ必要がありますか? そうでない場合は機能しないようです。もちろん、レイドはアンマウントされています。fsck -f チェックを行いました。RAID で resize2fs を実行しましたが、 mdadm -D /dev/md0 は、アレイ サイズ 8 TB と dev サイズ 4 TB の 4 つのディスクを表示します。fdisk -l も 8 TB のサイズしか示しません。

私は何か間違ったことをしましたか?ファイルシステムのサイズを変更して 4 番目のディスクを含めるにはどうすればよいですか?

fdisk -l 出力:

mdadm -D /dev/md0 出力