web-dev-qa-db-ja.com

Ubuntu14.04ソフトウェアRAID1-md0非アクティブ

ルートファイルシステムは/ dev/sdcにあり、ソフトウェアRAID1は/ dev/sdaと/ dev/sdbにまたがっています(私は思います)。今日、コンピューターを物理的に移動してソフトウェアの更新を実行しました(どちらも原因である可能性があります)。その後、RAIDアレイが使用できなくなったことに気付きました。理由はわかりませんが、mdadmが非アクティブとしてマークしているようです。マウントもできません。他にも提案がありますが、私の状況とまったく同じものはなく、データが失われるのではないかと心配しています。

私は構成ファイルを編集しておらず、この構成は以前は機能していました(RAIDが自動マウントされていないことを除いて、あまり気になりませんでした)。

編集:マシンを構築したときに最初にソフトウェアRAIDをセットアップしようとしましたが、問題が発生し、誤ってRAID上のデータを破壊したと思うので、別のソフトウェアRAIDをセットアップしてそれ以来ずっとそれを使っています。それが2つのエントリーの理由だと思います。そして今、私がそれを見ると、私のデータが2つのドライブ間でミラーリングされていないように見えますか?どういうわけか、1つのドライブに2つの別々のRAID 1がありますか?

編集2:/ dev/sdbは今日の更新時間に基づいて必要なRAID構成であり、/ dev/sda1と/ dev/sdb1で構成されるRAIDは古い構成のようですこれを作成したときの更新時間は2月です。

cat/proc/mdstat

root@waffles:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] 
md127 : inactive sda1[0](S)
      976630488 blocks super 1.2

md0 : inactive sdb[1](S)
      976631512 blocks super 1.2

unused devices: <none>

mdadm --examine --scan --config =/etc/mdadm/madadm.conf

root@waffles:~# mdadm --examine --scan --config=/etc/mdadm/madadm.conf
ARRAY /dev/md/0 metadata=1.2 UUID=dd54a7bd:15442724:ffd24430:0c1444b3 name=waffles:0
ARRAY /dev/md/0 metadata=1.2 UUID=047187c2:2a72494b:57327e8e:7ce78e9c name=waffles:0

cat /etc/mdadm/mdadm.conf

root@waffles:~# cat /etc/mdadm/mdadm.conf
# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#

# by default (built-in), scan all partitions (/proc/partitions) and all
# containers for MD superblocks. alternatively, specify devices to scan, using
# wildcards if desired.
#DEVICE partitions containers

# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes

# automatically tag new arrays as belonging to the local system
HOMEHOST <system>

# instruct the monitoring daemon where to send mail alerts
MAILADDR root

# definitions of existing MD arrays
#ARRAY /dev/md/0 metadata=1.2 UUID=047187c2:2a72494b:57327e8e:7ce78e9c name=waffles:0

# This file was auto-generated on Fri, 20 Feb 2015 10:00:12 -0500
# by mkconf $Id$
ARRAY /dev/md0 metadata=1.2 name=waffles:0 UUID=dd54a7bd:15442724:ffd24430:0c1444b3

cat/proc/mounts

root@waffles:~# cat /proc/mounts
rootfs / rootfs rw 0 0
sysfs /sys sysfs rw,nosuid,nodev,noexec,relatime 0 0
proc /proc proc rw,nosuid,nodev,noexec,relatime 0 0
udev /dev devtmpfs rw,relatime,size=16379004k,nr_inodes=4094751,mode=755 0 0
devpts /dev/pts devpts rw,nosuid,noexec,relatime,gid=5,mode=620,ptmxmode=000 0 0
tmpfs /run tmpfs rw,nosuid,noexec,relatime,size=3278828k,mode=755 0 0
/dev/disk/by-uuid/28631011-e1c9-4152-85b6-82073656a9ee / ext4 rw,relatime,errors=remount-ro,data=ordered 0 0
none /sys/fs/cgroup tmpfs rw,relatime,size=4k,mode=755 0 0
none /sys/fs/Fuse/connections fusectl rw,relatime 0 0
none /sys/kernel/debug debugfs rw,relatime 0 0
none /sys/kernel/security securityfs rw,relatime 0 0
none /run/lock tmpfs rw,nosuid,nodev,noexec,relatime,size=5120k 0 0
none /run/shm tmpfs rw,nosuid,nodev,relatime 0 0
none /run/user tmpfs rw,nosuid,nodev,noexec,relatime,size=102400k,mode=755 0 0
none /sys/fs/pstore pstore rw,relatime 0 0
systemd /sys/fs/cgroup/systemd cgroup rw,nosuid,nodev,noexec,relatime,name=systemd 0 0
/home/todd/.Private /home/todd ecryptfs rw,nosuid,nodev,relatime,ecryptfs_fnek_sig=b12c61ee79f0f7fc,ecryptfs_sig=2b32246c98b2f7ca,ecryptfs_cipher=aes,ecryptfs_key_bytes=16,ecryptfs_unlink_sigs 0 0
gvfsd-Fuse /run/user/1000/gvfs Fuse.gvfsd-Fuse rw,nosuid,nodev,relatime,user_id=1000,group_id=1000 0 0

cat/etc/fstab

root@waffles:~# cat /etc/fstab
# /etc/fstab: static file system information.
#
# Use 'blkid' to print the universally unique identifier for a
# device; this may be used with UUID= as a more robust way to name devices
# that works even if disks are added and removed. See fstab(5).
#
# <file system> <mount point>   <type>  <options>       <dump>  <pass>
# / was on /dev/sdc1 during installation
UUID=28631011-e1c9-4152-85b6-82073656a9ee /               ext4    errors=remount-ro 0       1
# swap was on /dev/sdc5 during installation
#UUID=d662ea5e-38f3-4a71-8a56-fa658c32b2eb none            swap    sw              0       0
/dev/mapper/cryptswap1 none swap sw 0 0

mount/dev/md0/media/raid1 /

root@waffles:~# mount /dev/md0 /media/raid1/
mount: /dev/md0: can't read superblock

grep'md0 '/ var/log/syslog

root@waffles:~# grep 'md0' /var/log/syslog
Dec 21 13:50:16 waffles kernel: [    1.043320] md/raid1:md0: active with 2 out of 2 mirrors
Dec 21 13:50:16 waffles kernel: [    1.043327] md0: detected capacity change from 0 to 1000070512640
Dec 21 13:50:16 waffles kernel: [    1.050982]  md0: unknown partition table
Dec 21 14:20:16 waffles mdadm[1921]: DeviceDisappeared event detected on md device /dev/md0
Dec 21 14:32:26 waffles mdadm[2426]: DeviceDisappeared event detected on md device /dev/md0
Dec 21 14:37:17 waffles kernel: [  302.004127] EXT4-fs (md0): unable to read superblock
Dec 21 14:37:17 waffles kernel: [  302.004198] EXT4-fs (md0): unable to read superblock
Dec 21 14:37:17 waffles kernel: [  302.004244] EXT4-fs (md0): unable to read superblock
Dec 21 14:37:17 waffles kernel: [  302.004294] FAT-fs (md0): unable to read boot sector
Dec 21 14:45:26 waffles mdadm[1917]: DeviceDisappeared event detected on md device /dev/md0
Dec 21 15:38:31 waffles kernel: [ 3190.749438] EXT4-fs (md0): unable to read superblock
Dec 21 15:38:31 waffles kernel: [ 3190.749609] EXT4-fs (md0): unable to read superblock
Dec 21 15:38:31 waffles kernel: [ 3190.749679] EXT4-fs (md0): unable to read superblock
Dec 21 15:38:31 waffles kernel: [ 3190.749749] FAT-fs (md0): unable to read boot sector

mdadm --examine/dev/sda1

root@waffles:~# mdadm --examine /dev/sda1
/dev/sda1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 047187c2:2a72494b:57327e8e:7ce78e9c
           Name : waffles:0  (local to Host waffles)
  Creation Time : Thu Feb 12 15:43:00 2015
     Raid Level : raid1
   Raid Devices : 2

 Avail Dev Size : 1953260976 (931.39 GiB 1000.07 GB)
     Array Size : 976630336 (931.39 GiB 1000.07 GB)
  Used Dev Size : 1953260672 (931.39 GiB 1000.07 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : 0b0a69b7:3c3900c0:6e26b3e4:91155d98

    Update Time : Fri Feb 20 09:36:16 2015
       Checksum : 9bfb3aa - correct
         Events : 27


   Device Role : Active device 0
   Array State : AA ('A' == active, '.' == missing)

mdadm --examine/dev/sdb1

root@waffles:~# mdadm --examine /dev/sdb1
/dev/sdb1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 047187c2:2a72494b:57327e8e:7ce78e9c
           Name : waffles:0  (local to Host waffles)
  Creation Time : Thu Feb 12 15:43:00 2015
     Raid Level : raid1
   Raid Devices : 2

 Avail Dev Size : 1953260976 (931.39 GiB 1000.07 GB)
     Array Size : 976630336 (931.39 GiB 1000.07 GB)
  Used Dev Size : 1953260672 (931.39 GiB 1000.07 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : 2fdaaf8c:30d5c44e:893f9a5a:11d8170c

    Update Time : Fri Feb 20 09:36:16 2015
       Checksum : 576cfb5c - correct
         Events : 27


   Device Role : Active device 1
   Array State : AA ('A' == active, '.' == missing)

mdadm --examine/dev/sdb(ここで更新時間を考えると、これが私が気にかけているものだと思います)

root@waffles:~# mdadm --examine /dev/sdb
/dev/sdb:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : dd54a7bd:15442724:ffd24430:0c1444b3
           Name : waffles:0  (local to Host waffles)
  Creation Time : Fri Feb 20 10:03:33 2015
     Raid Level : raid1
   Raid Devices : 2

 Avail Dev Size : 1953263024 (931.39 GiB 1000.07 GB)
     Array Size : 976631360 (931.39 GiB 1000.07 GB)
  Used Dev Size : 1953262720 (931.39 GiB 1000.07 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : f2e16155:49caff6d:d13115a6:379d2fc8

    Update Time : Mon Dec 21 13:14:19 2015
       Checksum : d5017b27 - correct
         Events : 276


   Device Role : Active device 1
   Array State : AA ('A' == active, '.' == missing)

これを再びマウントするための提案はありますか?それは移動からの悪いドライブである可能性があります、しかし私はコンピュータを移動するときに注意し、他の人がソフトウェアで同様の問題を解決したのを見ました。

2
Todd

そこにはかなり複雑なシステムがあります。 /dev/sdb(ボリューム全体)と/dev/sdb1(そのボリュームの最初のパーティション)は両方ともRAIDデバイスとして検出されています。これはOSを混乱させ、2つのRAIDアレイを作成します。/dev/md0/dev/sdbで構成される劣化したRAID 1アレイであり、/dev/md127/dev/sda1で構成される劣化したRAID1アレイです。それらは劣化しているため、OSは自動的に起動しません。

これから回復するための最初のステップは、ボリュームレベルのバックアップ(dd if=/dev/sdadd if=/dev/sdb)を作成することです。これにより、問題が発生した場合でも、現在よりも悪化することはありません。

それが済んだら、配列を読み取り専用モードでアクティブ化できます。mdadm --run --readonly /dev/md0; mdadm --run --readonly /dev/md127、ディスクをマウントし、それぞれに何が含まれているかを確認します。

/dev/sdbが使用しているRAIDアレイであることが正しいと仮定すると、次のステップは、RAIDアレイの2番目のボリュームとして何を使用していたかを把握することです。メタデータは、シャットダウンすると、両方のディスクが存在する2ディスクRAID1アレイ。

それを理解できない場合、または不足している部分を使用したくない場合で、/dev/sda1に重要なものが何も含まれていないことが正しい場合、次のステップはそれを/dev/md0に追加することです。

  1. 安全上の予防措置として、パーティションテーブルとmdメタデータを消去します:dd if=/dev/zero of=/dev/sda bs=1M count=1024
  2. それをアレイに追加します:mdadm --manage /dev/md0 --add /dev/sdaそして、アレイを再構築させます。

最後のステップは、/dev/sdb1mdスーパーブロックを一掃することです。 mdadmのマニュアルページによると、mdadm --zero-superblock /dev/sdb1は機能しますが、スーパーブロックはinside既存の配列であるため、実際にこれを行うことについては非常に緊張します。

0
Mark