web-dev-qa-db-ja.com

再起動後にLVMが起動しない、uuidのあるデバイスが見つからない

VMつまり、最近問題なく動作するまででしたが、いくつかの構成変更後に再起動する必要がありました。しかし、再起動後VMが来ませんでしたルートデバイス(/ dev/mapperの下のLVMボリューム)が見つからなかったとして、バックアップします。

リカバリモードで起動すると、/ dev/mapperと/ dev/dm- *の下のファイルシステムが実際には存在しないことがわかりました。

ファイルシステムは次のようにレイアウトする必要があります

  • /dev/sda1をブートパーティションとして
  • /dev/sda2拡張パーティションを含む
  • /dev/sda5および/dev/sda6 LVMパーティションとして
  • /dev/sda{5,6}は単一のVGの両方のPVです
  • ルートに2つのLVを使用FS and swap

lvm pvshowは私にくれます:

  Couldn't find device with uuid '8x38hf-mzd7-xTes-y6IV-xRMr-qrNP-0dNnLi'.
  Couldn't find device with uuid '8x38hf-mzd7-xTes-y6IV-xRMr-qrNP-0dNnLi'.
  Couldn't find device with uuid '8x38hf-mzd7-xTes-y6IV-xRMr-qrNP-0dNnLi'.
  --- Physical volume ---
  PV Name               unknown device
  VG Name               of1-server-lucid
  PV Size               19.76 GiB / not usable 2.00 MiB
  Allocatable           yes (but full)
  PE Size               4.00 MiB
  Total PE              5058
  Free PE               0
  Allocated PE          5058
  PV UUID               8x38hf-mzd7-xTes-y6IV-xRMr-qrNP-0dNnLi

  --- Physical volume ---
  PV Name               /dev/sda6
  VG Name               of1-server-lucid
  PV Size               100.00 GiB / not usable 2.66 MiB
  Allocatable           yes (but full)
  PE Size               4.00 MiB
  Total PE              25599
  Free PE               0
  Allocated PE          25599
  PV UUID               cuhP6R-QbiO-U7ye-WvXN-ZNq5-cqUs-VVZpux

したがって、/dev/sda5はPVとしてリストされておらず、エラーの原因となっています。

fdisk -l

Disk /dev/sda: 128.8 GB, 128849018880 bytes
255 heads, 63 sectors/track, 15665 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00044a6c

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1   *           1          32      248832   83  Linux
Partition 1 does not end on cylinder boundary.
/dev/sda2              32       15665   125579256+   5  Extended
/dev/sda5              32        2611    20722970   8e  Linux LVM
/dev/sda6            2612       15665   104856223+  8e  Linux LVM

だから私は/dev/sda5デバイスは存在しますが、blkidはそれについて何も報告していません:

~ # blkid
/dev/sda1: UUID="d997d281-2909-41d3-a835-dba400e7ceec" TYPE="ext2" 
/dev/sda6: UUID="cuhP6R-QbiO-U7ye-WvXN-ZNq5-cqUs-VVZpux" TYPE="LVM2_member" 

ディスクのスナップショットを撮った後、アーカイブ構成からPVを回復してみました。

~ # pvremove -ff /dev/sda5
Labels on physical volume "/dev/sda5" successfully wiped
~ # pvcreate --uuid=8x38hf-mzd7-xTes-y6IV-xRMr-qrNP-0dNnLi /dev/sda5 --restorefile=/etc/lvm/archive/of1-dev-server_00000.vg
Couldn't find device with uuid '8x38hf-mzd7-xTes-y6IV-xRMr-qrNP-0dNnLi'.
  Physical volume "/dev/sda5" successfully created
~ # vgchange -a y
2 logical volume(s) in volume group "of1-dev-server" now active"

したがって、少なくとも現在のデバイスにはblkidがあります。

/dev/sda1: UUID="d997d281-2909-41d3-a835-dba400e7ceec" TYPE="ext2" 
/dev/sda6: UUID="cuhP6R-QbiO-U7ye-WvXN-ZNq5-cqUs-VVZpux" TYPE="LVM2_member" 
/dev/sda5: UUID="8x38hf-mzd7-xTes-y6IV-xRMr-qrNP-0dNnLi" TYPE="LVM2_member" 

pvdisplayを実行すると、正しいデバイスも表示されるようになりました。

  --- Physical volume ---
  PV Name               /dev/sda5
  VG Name               of1-dev-danr-lucid
  PV Size               19.76 GiB / not usable 2.00 MiB
  Allocatable           yes (but full)
  PE Size               4.00 MiB
  Total PE              5058
  Free PE               0
  Allocated PE          5058
  PV UUID               8x38hf-mzd7-xTes-y6IV-xRMr-qrNP-0dNnLi

  --- Physical volume ---
  PV Name               /dev/sda6
  VG Name               of1-dev-danr-lucid
  PV Size               100.00 GiB / not usable 2.66 MiB
  Allocatable           yes (but full)
  PE Size               4.00 MiB
  Total PE              25599
  Free PE               0
  Allocated PE          25599
  PV UUID               cuhP6R-QbiO-U7ye-WvXN-ZNq5-cqUs-VVZpux

そしてマッパーデバイスが存在します:

crw-rw----    1 root     root      10,  59 Jul 10 10:47 control
brw-rw----    1 root     root     252,   0 Jul 10 11:21 of1--dev--server-root
brw-rw----    1 root     root     252,   1 Jul 10 11:21 of1--dev--server-swap_1

また、LVMは正しくリストされているようです:

~ # lvdisplay
  --- Logical volume ---
  LV Name                /dev/of1-dev-danr-lucid/root
  VG Name                of1-dev-danr-lucid
  LV UUID                pioKjE-iJEp-Uf9S-0MxQ-UR0H-cG9m-5mLJm7
  LV Write Access        read/write
  LV Status              available
  # open                 0
  LV Size                118.89 GiB
  Current LE             30435
  Segments               2
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           252:0

  --- Logical volume ---
  LV Name                /dev/of1-dev-danr-lucid/swap_1
  VG Name                of1-dev-danr-lucid
  LV UUID                mIq22L-RHi4-tudV-G6nP-T1e6-UQcS-B9hYUF
  LV Write Access        read/write
  LV Status              available
  # open                 0
  LV Size                888.00 MiB
  Current LE             222
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           252:1

しかし、ルートデバイスをマウントしようとすると、エラーが発生します。

~ # mount /dev/mapper/of1--dev--server-root /mnt2
mount: mounting /dev/mapper/of1--dev--server-root on /mnt2 failed: Invalid argument

だから私はディスクの整合性チェックを試しました:

~ # fsck.ext4 -f /dev/mapper/of1--dev--server-root
e2fsck: Superblock invalid, trying backup blocks...
e2fsck: Bad magic number in super-block while trying to open /dev/mapper/of1--dev--server-root
[...]

だから私は別のスーパーブロックを試しました:

~ # mke2fs -n /dev/mapper/of1--dev--server-root
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
Stride=0 blocks, Stripe width=0 blocks
7798784 inodes, 31165440 blocks
1558272 blocks (5.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=4294967296
952 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks: 
        32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208, 
        4096000, 7962624, 11239424, 20480000, 23887872
~ # fsck.ext4 -y -b 23887872 /dev/mapper/of1--dev--server-root

私がとんでもない数のエラーを受け取ったとき、私が目にした主なものは:

  • スーパーブロックに無効なジャーナルがあります
  • 1つ以上のブロックグループ記述子のチェックサムが無効です。
  • 孤立したiノードを切り捨てます()
  • 孤立したiノードですでにブロック#0()をクリアしました
  • / dev/mapper/of1--dev--server-rootにはエラーのあるファイルシステムが含まれています。強制的にチェックしてください
  • Iノードのサイズ変更が無効です。再作成
  • ルートiノードはディレクトリではありません。
  • 予約済みiノード3()のモードが無効です
  • HTREEディレクトリのiノードに無効なルートノードがあります
  • Iノード、i_blocksは、0でなければなりません。
  • 未接続のディレクトリiノード

多くのメッセージの後、それは完了したと言います。上記のようにディレクトリをマウントすると正常に動作しますが、ディレクトリはlost+foundディレクトリはファイルでいっぱいで、ほとんどが数字で、一部には以前は存在していたファイルに漠然と関連するファイル名があります。

つまり、どのようにしてVMバックアップしますか?

ディスクエラーが表示されたときはいつでも、スナップショットを作成して、状況が悪化しないようにしています。そのため、最初にエラーが発生したときの再起動直後のスナップショットがあります。

VMは、再起動するまで問題なく機能したため、データがどこかにあることを知っています。ユーザーは最近ファイルシステムで何も変更したことを思い出せませんが、それを再起動したので、それ以来、あらゆる種類のことが起こり得ました。

また、残念ながら、このノードではPuppetが無効になっているため、バックアップがありません。

元のOSは、VMWareで実行されているUbuntu Lucidでした。

4
Smudge

私が正しく理解していれば、lost+foundディレクトリ。重要なファイルがある場合とない場合があります。

VMの起動をブロックしているのはなぜですか?それでも起動デバイスが見つかりませんか?

きみの fdisk -l出力が私には少しずれているようです。パーティションテーブルのみが破損している可能性を考慮しましたか?このシナリオでは、スナップショットが役立つ場合があります。最良の場合、a(nother) fsckも必要ありません。ただし、パーティションのオフセットを見つけるために何かが必要です。 testdisk を2回以上使用しました。

最悪のシナリオでは、ボリュームから何かをこする必要がある場合は、 PhotoRec または Autopsy/The Sleuth Kit などの法医学ツールが役立つことがあります。

これでうまくいかない場合は、lsblk -o NAME,RM,SIZE,RO,TYPE,MAJ:MIN -fatも(これらのフラグはできるだけ多くの情報を表示するためのものです)、関連するdmesg出力があれば、それも出力します。