web-dev-qa-db-ja.com

RAID 1 mdadm(linux)ディスク障害の回復:DRDYエラー(UNC)が繰り返され続け、ログインに到達できません

週末に、ネットワークストレージサーバー(CentOS5および22tbドライブソフトウェアRAID1を備えたカスタムボックスのみ)から、ドライブの1つでSMART検出された問題を示すいくつかの電子メールを受け取りました。

私はステータスを実行し、レイドされたパーティションの2つが失敗とマークされました:

    [root@aapsan01 ~]# cat /proc/mdstat
Personalities : [raid1]
md1 : active raid1 sdb1[1] sda1[0]
      104320 blocks [2/2] [UU]

md0 : active raid1 sdb3[1] sda3[2](F)
      4064320 blocks [2/1] [_U]

md3 : active raid1 sdb5[1] sda5[0]
      1928860160 blocks [2/2] [UU]

md2 : active raid1 sdb2[1] sda2[2](F)
      20482752 blocks [2/1] [_U]

そこで、すべてのsdaのパーティションを「失敗」に設定し、すべてのsdaミラーを正常に削除し、新しい2 TBの同一のドライブを(シャットダウン後に)入れて起動しました。ブートプロセス中にmd:autodetect raid arrayに到達した後もエラーメッセージが繰り返されるため、ログインに到達できません。最初のエラーは次のようなものでした。

  DRDY err (UNC) -- exception emask media error

I/Oエラーが発生します。破損したドライブを取り外してから、もう一度入れてみました。同じショー。私が見つけた記事は、これが単純な回復プロセスであることを示しています。何が得られますか?誰かが似たようなものに遭遇しますか?各ステップを実行するのに何年もかかりますが、ブートプロセスはまだ継続しているように見えます。プロンプトに到達するのにこれほど長く待たなければならなかった人はいますか?うまくいけば、プロンプトに到達できない場合は、レスキューCDでどこかに到達できます。

2

Md2を見てください-配列に[sdb2] [sda2]の順序でリストされた2つのパーティションがあり、ペアのステータスは[_U]としてリストされています。これは、最初のパーティション([sdb2])がペアリングから脱落したことを意味します。 。ここを読んでください: http://www.howtoforge.com/replacing_hard_disks_in_a_raid1_array 。あなたがそれを分類することを願っています。

1
Linker3000

私はダミーです。障害のあるディスクを誤認し、回復作業で不良ディスクを使用しようとしていました。興味のある人は、lshalを使用して不良ドライブのS/Nを取得できます。 lshalの出力をログファイルにリダイレクトしてから、sdasdbまたはmdadmまたはSMARTが不良であると識別されたもの)を検索します。

0

Linker3000の回答に続いて、最初に取り外したディスクの内容はまだ問題ないはずです。実際に壊れていることがわかっているディスクを取り外し、正常なディスクだけから始めてみてください。壊れたディスクが存在する状態でディスクを再度追加したときに、mdが正常なディスクを遅れているとマークする可能性はわずかです。この場合、ライブCD/USBから開始して、RAIDを再度アクティブ化する必要があります。システムが正常に実行されたら、RAID1に新しいディスクを追加する通常の手順からやり直すことができます。

0
Joachim Wagner