web-dev-qa-db-ja.com

LinuxソフトウェアRAID1の再構築は完了しましたが、再起動後、再び劣化しました

私はここで問題で頭を殴っていました、そして私は今助けを求めてインターネットに目を向けています。

次の構成でMandrakeLinuxを実行しているシステムがあります。

  • _/dev/hda_-これはIDEドライブです。システムを起動し、ファイルシステムの大部分を構成するいくつかのパーティションがあります。
  • _/dev/sda_-これはソフトウェアRAID用のドライブ1/2です_/dev/md0_
  • _/dev/sdb_-これはソフトウェアRAID用のドライブ2/2です_/dev/md0_

_md0_はマウントされますが、fstabは_/data-storage_であるため、システムの起動機能にとって重要ではありません。 fstabからコメントすることができ、システムはどちらの方法でも問題なく動作します。

問題は、sdbドライブに障害が発生したことです。そこで、ボックスをシャットダウンし、故障したディスクを取り出して、新しいディスクを取り付けました。

システムが起動すると、_/proc/mdstat_はレイドの一部としてsdaのみを表示します。次に、さまざまなコマンドを実行して、RAIDを_/dev/sdb_に再構築します。すべてが正しく再構築され、完了すると、_/proc/mdstat_が表示され、2つのドライブsda1(0)sdb1(1)が表示されます。すべてが素晴らしく見えます。

次に、ボックスを再起動します... UGH !!!

再起動すると、sdbがRAIDから再び失われます。それは再構築が決して起こらなかったようなものです。コマンドをウォークスルーして再構築することができます。これは機能しますが、再起動後、ボックスによってsdbが消えてしまうようです。

本当に奇妙なことは、再起動後にsdaを箱から取り出して、システムに再構築されたsdbドライブをロードしようとすると、システムが実際にスローされ、grubの直後にエラーが発生することです。ドライブエラーについて何かを言い、システムをシャットダウンする必要があります。

考え???グラブがこの混乱と関係があるのだろうかと私は考え始めています。ドライブが起動時に表示されるようにgrub内でセットアップされていないということですか?このRAIDアレイは、システムを起動するために必要ではありませんが、交換用ドライブがそこにあると、SDAがないとシステムが起動しないので、何かがあると思います。その上、再起動後にドライブがRAIDから外れるという奇妙なことがあるようです。

キーボードで頭を叩くところまで来ました。どんな助けでも大歓迎です!!!

3
zimmy6996

今では手遅れかもしれませんが、新しいドライブを追加した後、mdadm.confファイルを更新しましたか?ディスクを変更すると、アレイは同じuuidを持たなくなり、再起動時に、新しいドライブがここにあることを知らずに、古いドライブを探します。

Mdadm.confの行を生成するコマンドは次のとおりです。

mdadm --detail --scan

起動の問題については、コンピュータがsdaのgrubを使用してhdaで起動する必要があります。これをBIOSで変更し、grubがhdaにもインストールされていることを確認する必要があります。

4
fab4am

HowToForgeで次のgreatチュートリアルを試してください。 mdadmの1つ以上のコマンドを見逃した可能性があります。以下を参照してください: http://www.howtoforge.com/replacing_hard_disks_in_a_raid1_array

1
Devator