web-dev-qa-db-ja.com

ディスクが完全に故障した後のRAID5の劣化-今何をすべきか?

NASでOMV3.0.99を実行しています。 3台の5TBWD REDドライブを含むRAID5(mdadmを使用)をセットアップしました。当時(2016年)、OMVGUIを使用してRAIDをセットアップしました。

最近、ディスクの1つに障害が発生しました(以前は/ dev/sddでした)。家に帰ったとき、起動時に奇妙な音がすることに気づきました。また、LINUXでは認識されなくなりました。デバイスが物理的に壊れているようで、ドライブの保証がまだあるため、RMAを設定しました。今、私は交換用ドライブを待っており、RAIDを回復するために新しいドライブがここにあるときに何をすべきかを自問しています。

私のドライブに関するいくつかのメモ:

  1. / dev/sdaは私のシステムドライブです
  2. ディスク/ dev/sdb、sdc、およびsddに含まれるRAID。ドライブ/ dev/sddに障害が発生し、NASケースから物理的に削除されました。
  3. これで、/ dev/sddがバックアップディスクに割り当てられました(RAIDディスクに障害が発生する前はsdeでした)

これが私のシステムのいくつかの重要な出力です:

uname -a出力

Linux homenas 4.9.0-0.bpo.6-AMD64 #1 SMP Debian 4.9.88-1+deb9u1~bpo8+1 (2018-05-13) x86_64 GNU/Linux

cat /proc/mdstat

Personalities : [raid6] [raid5] [raid4] 
md127 : active raid5 sdb[0] sdc[1]
        9767278592 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [UU_]
unused devices: <none>

blkid

/dev/sda1: UUID="911053a9-f06c-4479-becb-cb8faa2a5783" TYPE="ext4" PARTUUID="2c92f843-01"
/dev/sda5: UUID="28ae7474-1d14-48a6-9e8e-2ed31e060803" TYPE="swap" PARTUUID="2c92f843-05"
/dev/sdb: UUID="bb8b3798-d160-71b4-cc60-bc8fdc8e0761" UUID_SUB="e52bb12c-23e1-7c8f-a7f7-d52d4b2b46a9" LABEL="HomeNAS:NAS" TYPE="linux_raid_member"
/dev/sdc: UUID="bb8b3798-d160-71b4-cc60-bc8fdc8e0761" UUID_SUB="d9eac207-7167-d19e-c1de-8c7525b77d48" LABEL="HomeNAS:NAS" TYPE="linux_raid_member"
/dev/sdd1: UUID="523cffe7-115d-49b4-95e0-7549aecdf064" TYPE="ext4" PARTUUID="fba4a7ee-026a-497f-9b3d-bbdec92cb0d6"
/dev/md127: UUID="bd5ef96f-5587-4211-95c0-10219985ff6d" TYPE="ext4"

fdisk -l | grep "Disk "

Disk /dev/sda: 29,8 GiB, 32017047552 bytes, 62533296 sectors
Disk identifier: 0x2c92f843
Disk /dev/sdb: 4,6 TiB, 5000981078016 bytes, 9767541168 sectors
Disk /dev/sdc: 4,6 TiB, 5000981078016 bytes, 9767541168 sectors
Disk /dev/sdd: 1,8 TiB, 2000394706432 bytes, 3907020911 sectors
Disk identifier: C0401C51-A74A-4675-935E-AF9BF6706166
Disk /dev/md127: 9,1 TiB, 10001693278208 bytes, 19534557184 sectors

cat /etc/mdadm/mdadm.conf

# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#
        ​
# by default, scan all partitions (/proc/partitions) for MD superblocks.
# alternatively, specify devices to scan, using wildcards if desired.
# Note, if no DEVICE line is present, then "DEVICE partitions" is assumed.
# To avoid the auto-Assembly of RAID devices a pattern that CAN'T match is
# used if no RAID devices are configured.
DEVICE partitions

# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes

# automatically tag new arrays as belonging to the local system
HOMEHOST <system>

# definitions of existing MD arrays
ARRAY /dev/md/NAS metadata=1.2 name=HomeNAS:NAS UUID=bb8b3798:d16071b4:cc60bc8f:dc8e0761
​
# instruct the monitoring daemon where to send mail alerts
MAILADDR <<<<REMOVED FOR PRIVACY RESONS>>>>

mdadm --detail --scan --verbose

ARRAY /dev/md127 level=raid5 num-devices=3 metadata=1.2 name=HomeNAS:NAS UUID=bb8b3798:d16071b4:cc60bc8f:dc8e0761
      devices=/dev/sdb,/dev/sdc

mdadm --detail /dev/md127

/dev/md127:
          Version : 1.2
Creation Time : Sat Mar 12 17:22:49 2016
       Raid Level : raid5
       Array Size : 9767278592 (9314.80 GiB 10001.69 GB)
  Used Dev Size : 4883639296 (4657.40 GiB 5000.85 GB)
   Raid Devices : 3
  Total Devices : 2
    Persistence : Superblock is persistent
        ​
            Update Time : Sun Jan 27 13:11:42 2019
                  State : clean, degraded 
         Active Devices : 2
        Working Devices : 2
         Failed Devices : 0
          Spare Devices : 0
        ​
                 Layout : left-symmetric
             Chunk Size : 512K
        ​
                   Name : HomeNAS:NAS
                   UUID : bb8b3798:d16071b4:cc60bc8f:dc8e0761
                 Events : 305
        ​
            Number   Major   Minor   RaidDevice State
               0       8       16        0      active sync   /dev/sdb
               1       8       32        1      active sync   /dev/sdc
               4       0        0        4      removed

インターネットを検索してさまざまな手順を見つけましたが、自分の状況でどれが必要かわかりません。

  1. ディスクを失敗としてマークする
  2. アレイからディスクを削除します
  3. アレイの残りの1つのディスクのパーティションテーブルを新しい交換用ドライブにコピーします
  4. ドライブをアレイに再追加します(->再構築が自動的に開始されます)

ディスクが完全に故障し、Linuxに存在しなくなったため、故障としてマークしてアレイから削除することができませんでした。もはや存在しないアレイからディスクを削除する次のコマンドを見つけました:mdadm /dev/md127 -r detached

新しいドライブをインストールする前に、このコマンドを使用することをお勧めしますか?または、私の場合、アレイからドライブを削除する必要はありませんか?

よろしくお願いします!前もって感謝します

3
bash0r1988

基本的にそれは単純です

mdadm /dev/md127 --add /dev/newdrive

その後 watch cat /proc/mdstatおよび/またはdmesg -w再構築の進行状況または失敗。

アレイに新しいドライブを追加するのが早ければ早いほどよいでしょう。待機中に別のドライブに障害が発生した場合は、それだけです。データのバックアップがない場合は、できるだけ早く作成してください。

通常は、最初にドライブにパーティションテーブルを作成してから、ドライブではなくRAID用のパーティションを使用します。ただし、アレイにパーティション化されていないドライブが既にあり、パーティションテーブルを追加すると、サイズが一致しなくなるため、この場合は不可能です。

パーティションテーブルなしでドライブを実行すると、データ損失の潜在的な原因になります。ソフトウェアが多すぎて、パーティションテーブルが表示されない場合に役立つように作成され、誤って自分で作成することも簡単です。

3
frostschutz