web-dev-qa-db-ja.com

NAS mdadmを使用したRAID 5リカバリ:ボリュームとマウントの問題、助けてください

こんにちは、これはubuntu、またはそのことについてのLinixの最初の進出であり、失われた襲撃を回復する最初の試みですが、私はかなり迅速な研究です。私は、8TB WD Sharespace、4台の2TBドライブをRaid 5にセットアップし、2台の「故障した」(たぶんそうではない)ドライブを持っています。私は自分のデータを回復することを切望しています。すべての音楽、映画、ゲームなどは別として、育った私の子供のすべての写真とホームビデオはこのことであり、私はそれらを回復するためにかなり必死です。自分で何かをすることを好むことは別として、私は専門的なデータ復旧をする余裕はありません。私はオリジナルをコピーするためのバックアップドライブを持っていませんし、それらを買う余裕がないので、オリジナルのディスクでこれを自分でやろうとしています。どんな助けも大歓迎です。

何が関連性があり、何がこれを理解しようとしているのかわからないので、説明しすぎても許してください。 NAS内のコントローラーに障害が発生し、ドライブ上のデータは実際にはまだ完全であると思われます。 4つのドライブすべてをNASから引き出し、コンプに整理して通常のHDDを切断し、トライアルモードでLive CDを使用してUbuntuを実行しています。私はこれまでこのガイドを使用してこれをやろうとしました: HOWTO:Sharespace Raid 5 Data Recovery 、しかし途中でいくつかの障害に遭遇し、フォーラム全体が閉じているので、そこで質問しないでください。

私が最初にしたことは、自分をrootユーザーに設定し、すべてのドライブが正しい場所にあり、認識されていることを確認することでした。 fdisk -lを使用する

Disk /dev/sda: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1               1      417689      208844+  fd  Linux raid autodetect
/dev/sda2          417690     2506139     1044225   fd  Linux raid autodetect
/dev/sda3         2506140     2923829      208845   fd  Linux raid autodetect
/dev/sda4         2923830  3907024064  1952050117+  fd  Linux raid autodetect

Disk /dev/sdb: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1               1      417689      208844+  fd  Linux raid autodetect
/dev/sdb2          417690     2506139     1044225   fd  Linux raid autodetect
/dev/sdb3         2506140     2923829      208845   fd  Linux raid autodetect
/dev/sdb4         2923830  3907024064  1952050117+  fd  Linux raid autodetect

Disk /dev/sdc: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

   Device Boot      Start         End      Blocks   Id  System
/dev/sdc1               1      417689      208844+  fd  Linux raid autodetect
/dev/sdc2          417690     2506139     1044225   fd  Linux raid autodetect
/dev/sdc3         2506140     2923829      208845   fd  Linux raid autodetect
/dev/sdc4         2923830  3907024064  1952050117+  fd  Linux raid autodetect

Disk /dev/sdd: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

   Device Boot      Start         End      Blocks   Id  System
/dev/sdd1               1      417689      208844+  fd  Linux raid autodetect
/dev/sdd2          417690     2506139     1044225   fd  Linux raid autodetect
/dev/sdd3         2506140     2923829      208845   fd  Linux raid autodetect
/dev/sdd4         2923830  3907024064  1952050117+  fd  Linux raid autodetect

私が探しているものを本当に知らないが、赤い旗を送ったものは何も見ない、それらはすべて私にはかなり無傷で健康に見えるので、私はsd * 4パーティションからraidを組み立てようとするレイドを再構築するためのデータを持つものである。

私は試した:

mdadm --assemble /dev/md0 /dev/sda4 /dev/sdb4 /dev/sdc4 /dev/sdd4

しかし、2台のドライブについてエラーが発生し、十分ではなかったため、インターネットを探し始め、強制コマンドがあることを知り、それを使用しました。

mdadm --assemble --force /dev/md0 /dev/sda4 /dev/sdb4 /dev/sdc4 /dev/sdd4

そしてそれはうまくいくようでした。ええと...

vgscan

No volume groups found

ブー...だから、インターネットを探し回って、誰かが同様の問題を抱えていて、データに正常にアクセスするためにボリュームとローカルグループを再作成する必要があるという投稿を見つけました。使用していたガイドのボリュームグループとローカルグループの名前を使用して、見つけた新しいコマンドを使用してそれらを作成しました。

vgcreate vg0 /dev/md0

そして

lvcreate -L5.45T -n lv0 vg0

両方が作成されたと報告され、すべてが世界で良いように見えました。私のガイドに戻るまで、私はそれをマウントしようとしました:

mkdir /mnt/raid
mount -t auto /dev/vg0/lv0 /mnt/raid
mount: you must specify the filesystem type

どうやらガイドが言ったように「自動」は機能しません。ネットを突っついてみると、ext3とext 4の2つのファイルシステムタイプが見つかったので、それらも試してみました。

mount -t ext3 /dev/vg0/lv0 /mnt/raid
mount: wrong fs type, bad option, bad superblock on /dev/mapper/vg0-lv0,
       missing codepage or helper program, or other error
       In some cases useful info is found in syslog - try
       dmesg | tail  or so

そして

mount -t ext4 /dev/vg0/lv0 /mnt/raid
mount: wrong fs type, bad option, bad superblock on /dev/mapper/vg0-lv0,
       missing codepage or helper program, or other error
       In some cases useful info is found in syslog - try
       dmesg | tail  or so

どちらも機能しなかったことがわかるように...それで、検索をさらに数時間行った後、私は本当に助けを求める必要があるという結論に達しました。誰かが提案やアドバイスを持っているか、この仕事をする方法をよりよく知っているなら、私は洞察を本当に感謝します。私が何か間違ったことをしたら、それはまた知っておくと良いでしょう。

私もこれが役に立つかもしれないと考えました:

mdadm --detail /dev/md0
/dev/md0:
        Version : 0.90
  Creation Time : Thu Dec 10 05:44:29 2009
     Raid Level : raid5
     Array Size : 5854981248 (5583.75 GiB 5995.50 GB)
  Used Dev Size : 1951660416 (1861.25 GiB 1998.50 GB)
   Raid Devices : 4
  Total Devices : 3
Preferred Minor : 0
    Persistence : Superblock is persistent

    Update Time : Thu Apr  4 08:12:03 2013
          State : clean, degraded 
 Active Devices : 3
Working Devices : 3
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 64K

           UUID : dd69553d:5c832cf7:9755c9c8:d208511e
         Events : 0.3986045

    Number   Major   Minor   RaidDevice State
       0       8        4        0      active sync   /dev/sda4
       1       8       20        1      active sync   /dev/sdb4
       2       8       36        2      active sync   /dev/sdc4
       3       0        0        3      removed

これと同様に:

cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] 
md0 : active raid5 sda4[0] sdc4[2] sdb4[1]
      5854981248 blocks level 5, 64k chunk, algorithm 2 [4/3] [UUU_]

unused devices: <none>

これは、これらすべてを試した後の私のfdisk -lの外観です。

fdisk -l

Disk /dev/sda: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1               1      417689      208844+  fd  Linux raid autodetect
/dev/sda2          417690     2506139     1044225   fd  Linux raid autodetect
/dev/sda3         2506140     2923829      208845   fd  Linux raid autodetect
/dev/sda4         2923830  3907024064  1952050117+  fd  Linux raid autodetect

Disk /dev/sdb: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1               1      417689      208844+  fd  Linux raid autodetect
/dev/sdb2          417690     2506139     1044225   fd  Linux raid autodetect
/dev/sdb3         2506140     2923829      208845   fd  Linux raid autodetect
/dev/sdb4         2923830  3907024064  1952050117+  fd  Linux raid autodetect

Disk /dev/sdc: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

   Device Boot      Start         End      Blocks   Id  System
/dev/sdc1               1      417689      208844+  fd  Linux raid autodetect
/dev/sdc2          417690     2506139     1044225   fd  Linux raid autodetect
/dev/sdc3         2506140     2923829      208845   fd  Linux raid autodetect
/dev/sdc4         2923830  3907024064  1952050117+  fd  Linux raid autodetect

Disk /dev/sdd: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

   Device Boot      Start         End      Blocks   Id  System
/dev/sdd1               1      417689      208844+  fd  Linux raid autodetect
/dev/sdd2          417690     2506139     1044225   fd  Linux raid autodetect
/dev/sdd3         2506140     2923829      208845   fd  Linux raid autodetect
/dev/sdd4         2923830  3907024064  1952050117+  fd  Linux raid autodetect

Disk /dev/md0: 5995.5 GB, 5995500797952 bytes
2 heads, 4 sectors/track, 1463745312 cylinders, total 11709962496 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 65536 bytes / 196608 bytes
Disk identifier: 0x00000000

Disk /dev/md0 doesn't contain a valid partition table

Disk /dev/mapper/vg0-lv0: 5992.3 GB, 5992339210240 bytes
255 heads, 63 sectors/track, 728527 cylinders, total 11703787520 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 65536 bytes / 196608 bytes
Disk identifier: 0x00000000

Disk /dev/mapper/vg0-lv0 doesn't contain a valid partition table

私はまだこれにまだ慣れていないので、提案をする理由についての基本的な理解があればアドバイスをいただければ幸いです。これは、私がやっていることをより深く理解するのに役立ちます。ありがとうございました!

1

あなたが提供した情報から、あなたのデータの大部分が無傷のままであるという点であなたはおそらく正しいと思います。この時点で、破損したRAIDアレイを処理しています。明らかにあなたが行きたい場所ではなく、世界の終わりでもない。

ShareSpaceユニットでの私の経験では、通常、RAIDが実際にクラッシュするずっと前に1つのドライブがアレイから脱落します。 LinuxソフトウェアRAIDシステムは、最初のドライブ障害を検出し、アレイを劣化モードに切り替えます。これは、アレイは動作し続けますが、残りの3つの良好なドライブのみを使用していることを意味します。 2番目のドライブがアレイから脱落するまで、しばらくの間は正常に動作しているように見えます。その後、RAIDがクラッシュし、問題が発生します。

これらのドライブは、何らかの理由でドロップアウトします。一般的には不良セクターです。幸いなことに、多くの場合、回復が可能です。ただし、誤った手順を実行するとデータ回復の可能性が低くなるため、慎重に対処する必要があります。

単独で使用する場合は、先に進む前にバックアップイメージを取得することをお勧めします。 4台の2TBドライブを使用するよりも簡単に言うことができます。ただし、/ dev/sda、/ dev/sdb、および/ dev/sdcの3つのみをバックアップする必要があります。

または、あなたが助けたいと思うならば、私はオンラインデータ回復コンサルタントです。そして、世界中のクライアント向けにインターネット経由でリモートNAS/RAIDデータリカバリを実行します。過去には、多くの成功したリモートWD ShareSpaceデータリカバリ操作を実行しました。私は、リモートデータリカバリとDo-It-Yourselfデータリカバリの両方の支援を提供しています。よろしければ、喜んでお手伝いさせていただきます。私のサイトを通して私に連絡してください。私の名前はStephen Haranで、私のサイトは http://www.FreeDataRecovery.us です

1
Stephen Haran

更新:Stephenのおかげで、すべてのデータを回復できました。誰かがあらゆる種類のデータ回復の助けを必要とするなら、私は彼のサービスを強くお勧めします。 http://www.FreeDataRecovery.us

0