web-dev-qa-db-ja.com

再起動後にMDADMRAIDが「失われました」

今はちょっと怖いので、私の問題に光を当てていただければ幸いです!

数週間前、新しい2TBドライブを購入し、HTPCでMDADMを使用してソフトウェアRAID 5をセットアップすることにしました(ドライブsdbsdc、およびsde)。だから私はすぐにグーグルで検索して見つけました このチュートリアル

次に、指示に従い、新しいアレイを作成し、/proc/mdstatでステータスなどを監視します。数時間後、アレイが完成しました。どこでも喜び、すべてが良かった、そして私のファイルは幸せにアクセスできた。

だが!!

昨日、ファンを交換するためにHTPCをシャットダウンする必要がありました。再起動後、ああ、ああ、私のRAIDがマウントされていませんでした。そして、私はmdadmの「初心者」なので、完全に迷子になっています。

fdisk -lを実行すると、次の結果が得られます。

xxxxx@HTPC:~$ Sudo fdisk -l /dev/sdb /dev/sdc /dev/sde
Disk /dev/sdb: 1.8 TiB, 2000398934016 bytes, 3907029168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: FD6454FC-BD66-4AB5-8970-28CF6A25D840

Device     Start        End    Sectors  Size Type
/dev/sdb1   2048 3907028991 3907026944  1.8T Linux RAID


Disk /dev/sdc: 1.8 TiB, 2000398934016 bytes, 3907029168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: F94D03A1-D7BE-416C-8336-75F1F47D2FD1

Device     Start        End    Sectors  Size Type
/dev/sdc1   2048 3907029134 3907027087  1.8T Linux filesystem


Disk /dev/sde: 1.8 TiB, 2000398934016 bytes, 3907029168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes

私は混乱しているだけではありません!何らかの理由で、3つのドライブのうち2つにパーティションがあるだけでなく、それらのパーティションは、チュートリアルに従ったときに最初に削除したものです。 /dev/sdb1が「LinuxRAID」と表示される理由は、スーパーユーザーで別のソリューションを実行した後( 再起動後に新しいmdadm RAIDが消える )、成功しなかったためです。

そして、これがmdadm --assembleを実行した後の結果です。

xxxxx@HTPC:/etc/mdadm$ Sudo mdadm --assemble --scan -v
mdadm: looking for devices for /dev/md0
mdadm: No super block found on /dev/dm-1 (Expected magic a92b4efc, got 00000000)
mdadm: no RAID superblock on /dev/dm-1
mdadm: No super block found on /dev/dm-0 (Expected magic a92b4efc, got 0000040e)
mdadm: no RAID superblock on /dev/dm-0
mdadm: cannot open device /dev/sr0: No medium found
mdadm: No super block found on /dev/sdd1 (Expected magic a92b4efc, got 00000401)
mdadm: no RAID superblock on /dev/sdd1
mdadm: No super block found on /dev/sdd (Expected magic a92b4efc, got d07f4513)
mdadm: no RAID superblock on /dev/sdd
mdadm: No super block found on /dev/sdc1 (Expected magic a92b4efc, got 00000401)
mdadm: no RAID superblock on /dev/sdc1
mdadm: No super block found on /dev/sdc (Expected magic a92b4efc, got 00000000)
mdadm: no RAID superblock on /dev/sdc
mdadm: No super block found on /dev/sdb1 (Expected magic a92b4efc, got 00000401)
mdadm: no RAID superblock on /dev/sdb1
mdadm: No super block found on /dev/sdb (Expected magic a92b4efc, got 00000000)
mdadm: no RAID superblock on /dev/sdb
mdadm: No super block found on /dev/sda1 (Expected magic a92b4efc, got f18558c3)
mdadm: no RAID superblock on /dev/sda1
mdadm: No super block found on /dev/sda (Expected magic a92b4efc, got 70ce7eb3)
mdadm: no RAID superblock on /dev/sda
mdadm: /dev/sde is identified as a member of /dev/md0, slot 2.
mdadm: no uptodate device for slot 0 of /dev/md0
mdadm: no uptodate device for slot 1 of /dev/md0
mdadm: added /dev/sde to /dev/md0 as 2
mdadm: /dev/md0 assembled from 1 drive - not enough to start the array.

私はすでにsmartmontoolsでチェックしました、そしてすべてのドライブは「健康」です。データを保存するためにできることはありますか?いくつかの調査の後、チュートリアルは最高のものではなかったようですが....地獄、すべてがしばらくの間機能していました。

UPDATE:運が良かったので、bash_historyで配列を作成するために使用した正確なコマンドを見つけました!

Sudo mdadm --create --verbose /dev/md0 --level=5 --raid-devices=3 /dev/sdb /dev/sdc /dev/sde

たぶん、たぶん、RAIDを復活させるために、もう一度実行する必要がありますか?私の唯一の懸念は、それらのドライブ上の「いくつかの」データを取り戻すことです。その後、白紙のセットアップを行います。

1
Patrick Pruneau

さて、最後のフーレイで、私は以前に配列を構築するために使用した「作成」コマンドを再実行しようとしました、そして.....誰がデータを取り戻したかを推測します!!

良いものをすべてバックアップして、アレイを最初から再起動するとします。みんな助けてくれてありがとう!

1
Patrick Pruneau

残念ながら、RAIDアレイはなくなりました。別の解決策を試した後、fdisk -l出力を提供したとのことですが、残念ながらHDの1つが消去されました。しかし、もう一方も調子が悪いです。 RAIDアレイを作成した後は、常にmdadm.confファイルを生成する必要がありますが、mdadmは3つのHDのうち2つで欠落しているスーパーブロックから開始してRAIDアレイを再構築できるはずなので、これはここで重要なポイントではありません。何が起こったのかよくわかりませんが、mdadm.confがないために再アセンブルする必要があったのではないかと思いますが、クレイジーなコマンドを発行し始めたため、残念ながら配列が破壊されました。

1
Menion