web-dev-qa-db-ja.com

mdadm raidで故障/取り外したHDDを特定するにはどうすればよいですか?

私の現在のmdstat:

$ cat /proc/mdstat 
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10] 
md0 : active raid6 sde[8] sdh[4] sdg[1] sdd[6] sdb[5] sdc[7]
      9766914560 blocks super 1.2 level 6, 512k chunk, algorithm 2 [7/6] [UUUUU_U]

unused devices: <none>

これがmdadm--detailです:

$ Sudo mdadm --detail /dev/md0
/dev/md0:
        Version : 1.2
  Creation Time : Fri Apr 26 21:52:21 2013
     Raid Level : raid6
     Array Size : 9766914560 (9314.46 GiB 10001.32 GB)
  Used Dev Size : 1953382912 (1862.89 GiB 2000.26 GB)
   Raid Devices : 7
  Total Devices : 6
    Persistence : Superblock is persistent

    Update Time : Tue Mar 28 15:19:34 2017
          State : clean, degraded 
 Active Devices : 6
Working Devices : 6
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 512K

           Name : server:0  (local to Host server)
           UUID : 7dfb32ef:8454e49b:ec03ac98:cdb2e691
         Events : 34230

    Number   Major   Minor   RaidDevice State
       8       8       64        0      active sync   /dev/sde
       1       8       96        1      active sync   /dev/sdg
       4       8      112        2      active sync   /dev/sdh
       5       8       16        3      active sync   /dev/sdb
       6       8       48        4      active sync   /dev/sdd
      10       0        0       10      removed
       7       8       32        6      active sync   /dev/sdc

私の質問は次のとおりです。

  1. 取り外したHDDをどのように把握する必要がありますか?システムで使用可能なすべてのHDD(ls/dev/sd *)からmdadm出力に表示されるディスクのセットを差し引くなどのトリックや推測なしで...
  2. Mdadmがディスクを削除できるのはなぜですか? smartctlテストを実行して正常に終了した場合、再度追加しても大丈夫ですか?

[〜#〜] update [〜#〜]正解はsdfです。 mdadm出力に表示されるディスクのセットとシステム内のすべてのディスク(sda-はOSを搭載したブートディスク)を比較して見つけましたが、それでもそのような手順は難しすぎることがわかりました。

2
DimanNe

mdadm --detail /dev/md0を実行して、RAIDアレイのUUIDを取得できます。この場合は「7dfb32ef:8454e49b:ec03ac98:cdb2e691」です。

次に、mdadm --examine /dev/sdaを実行し、それがどのArray UIDに属しているかを確認します。それが同じで、sdaがmdadm --detail /dev/md0出力にない場合は、ディスクが取り外された可能性があります。

mdadmがディスクを削除する理由についてはお答えできませんが、dmesg/var/logで詳細情報を見つけることができるはずです。

それらの場所に問題がなく、SMARTがディスクに問題がないことを示している場合は、ディスクを再度追加しても安全です。

mdadm --monitorを構成して、RAIDセットを実行および監視し、何かが発生した場合に電子メールで送信することをお勧めします。

5
Victor Jerlin

RAIDアレイ内のディスクの順序は重要です。コマンドmdadm --detail /dev/md0の出力で確認できます。あなたの例ではそれは:

sde sdg sdh sdb sdd missed sdc

ディスクが故障したかプラグが抜かれた場合でも、ディスクはRAIDアレイに属します。あなたの例では、mdadmコマンドを使用して手動でRAIDアレイからディスクを削除しました。 smartctlは、ディスクの状態を表示するための優れたプログラムです。ただし、アレイ内のディスクがわからない場合、このプログラムは役に立ちません。

1
Mikhail Khirgiy