web-dev-qa-db-ja.com

ZFSデータセットが再起動時に消える


Centos 7にZFS(0.6.5)をインストールし、zpoolも作成しました。リブート時にデータセットが消えるという事実を除けば、すべて正常に機能します。
私はさまざまなオンラインリソースやブログを利用してこの問題をデバッグしようと試みましたが、望ましい結果を得ることができませんでした。
再起動後、_zfs list_コマンドを発行すると、 "利用可能なデータセットがありません"が表示され、_zpool list_が "利用可能なプールがありません"多くのオンライン調査を行った後、zpool import -c cachefileを使用して手動でキャッシュファイルをインポートすることで機能させることができますしかし、それでも再起動の前にzpool set cachefile =/etc/zfs/zpool.cache Poolを実行して、後で再起動後にインポートする必要がありました。

これは_systemctl status zfs-import-cache_の外観です。

zfs-import-cache.service - Import ZFS pools by cache file Loaded: loaded (/usr/lib/systemd/system/zfs-import-cache.service; static) Active: inactive (dead)

_cat /etc/sysconfig/zfs_

_# ZoL userland configuration.

# Run `zfs mount -a` during system start?
ZFS_MOUNT='yes'

# Run `zfs unmount -a` during system stop?
ZFS_UNMOUNT='yes'

# Run `zfs share -a` during system start?
# nb: The shareiscsi, sharenfs, and sharesmb dataset properties.
ZFS_SHARE='yes'

# Run `zfs unshare -a` during system stop?
ZFS_UNSHARE='yes'

# Specify specific path(s) to look for device nodes and/or links for the
# pool import(s). See zpool(8) for more information about this variable.
# It supersedes the old USE_DISK_BY_ID which indicated that it would only
# try '/dev/disk/by-id'.
# The old variable will still work in the code, but is deprecated.
#ZPOOL_IMPORT_PATH="/dev/disk/by-vdev:/dev/disk/by-id"

# Should the datasets be mounted verbosely?
# A mount counter will be used when mounting if set to 'yes'.
VERBOSE_MOUNT='no'

# Should we allow overlay mounts?
# This is standard in Linux, but not ZFS which comes from Solaris where this
# is not allowed).
DO_OVERLAY_MOUNTS='no'

# Any additional option to the 'zfs mount' command line?
# Include '-o' for each option wanted.
MOUNT_EXTRA_OPTIONS=""

# Build kernel modules with the --enable-debug switch?
# Only applicable for Debian GNU/Linux {dkms,initramfs}.
ZFS_DKMS_ENABLE_DEBUG='no'

# Build kernel modules with the --enable-debug-dmu-tx switch?
# Only applicable for Debian GNU/Linux {dkms,initramfs}.
ZFS_DKMS_ENABLE_DEBUG_DMU_TX='no'

# Keep debugging symbols in kernel modules?
# Only applicable for Debian GNU/Linux {dkms,initramfs}.
ZFS_DKMS_DISABLE_STRIP='no'

# Wait for this many seconds in the initrd pre_mountroot?
# This delays startup and should be '0' on most systems.
# Only applicable for Debian GNU/Linux {dkms,initramfs}.
ZFS_INITRD_PRE_MOUNTROOT_SLEEP='0'

# Wait for this many seconds in the initrd mountroot?
# This delays startup and should be '0' on most systems. This might help on
# systems which have their ZFS root on a USB disk that takes just a little
# longer to be available
# Only applicable for Debian GNU/Linux {dkms,initramfs}.
ZFS_INITRD_POST_MODPROBE_SLEEP='0'

# List of additional datasets to mount after the root dataset is mounted?
#
# The init script will use the mountpoint specified in the 'mountpoint'
# property value in the dataset to determine where it should be mounted.
#
# This is a space separated list, and will be mounted in the order specified,
# so if one filesystem depends on a previous mountpoint, make sure to put
# them in the right order.
#
# It is not necessary to add filesystems below the root fs here. It is
# taken care of by the initrd script automatically. These are only for
# additional filesystems needed. Such as /opt, /usr/local which is not
# located under the root fs.
# Example: If root FS is 'rpool/ROOT/rootfs', this would make sense.
#ZFS_INITRD_ADDITIONAL_DATASETS="rpool/ROOT/usr rpool/ROOT/var"

# List of pools that should NOT be imported at boot?
# This is a space separated list.
#ZFS_POOL_EXCEPTIONS="test2"

# Optional arguments for the ZFS Event Daemon (ZED).
# See zed(8) for more information on available options.
#ZED_ARGS="-M"
_

これが既知の問題であるかどうかはわかりませんが、そうである場合、この問題の回避策はありますか?おそらく、再起動後、できればキャッシュファイルのオーバーヘッドなしでデータセットを保存する簡単な方法です。

13
Vishnu Nair

Zfsサービス(ターゲット)が有効になっていることを確認してください。これが、ブート/シャットダウン時にプールのインポート/エクスポートを処理するものです。

zfs.target loaded active active ZFS startup target

あなたはこれに苦労する必要はありません。機会があれば、zfsディストリビューションでアップデートを実行してください。これは、過去数回のリリースでスタートアップサービスが改善されたことを知っているからです。

[root@zfs2 ~]# rpm -qi zfs
Name        : zfs
Version     : 0.6.5.2
Release     : 1.el7.centos
6
ewwhite

わかりました、それでプールはそこにあります、それは問題があなたのzfs.cacheにあることを意味します、それは永続的ではありません、そしてそれがそれがあなたの再起動時にその設定を失う理由です。私が行うことをお勧めするのは実行することです:

      zpool import zfsPool 
      zpool list 

そして、それが利用可能かどうかを確認します。サーバーを再起動し、戻ってくるかどうかを確認します。戻ってこない場合は、同じ手順を実行して実行します。

      zpool scrub

すべてがプールなどで問題ないことを確認するだけです。

Plsは以下のコンテンツも投稿します。

      /etc/default/zfs.conf
      /etc/init/zpool-import.conf

または、この問題の回避策を探している場合は、もちろん次のように設定できます。

の値を1から0に変更します。

    /etc/init/zpool-import.conf

以下を/etc/rc.localに追加してください:

    zfs mount -a

これでうまくいきます。

5
ostendali

再起動後にzfsが消える問題もありました。 CentOS 7.3とZFS 0.6.5.9を実行すると、次の再起動までしか再インポート(zpool import zfspool)されませんでした。

これは私のために働いたコマンドです(再起動を通してそれを持続させるために):

systemctl preset zfs-import-cache zfs-import-scan zfs-mount zfs-share zfs-zed zfs.target

(これは https://github.com/zfsonlinux/zfs/wiki/RHEL-%26-CentOS で見つかりました)

4
Jeff