web-dev-qa-db-ja.com

iSCSI / NFSサーバーのストレージセットアップ

ストレージサーバー(iSCSI + NFS)を交換する準備をしています。現在のサーバーは、ストレージにmdadm + lvm2を使用するDebianWheezyであり、drbdとハートビートを使用してフェイルオーバーします(ハートビートが機能することはありません)。

交換用サーバーにはZFSを使用したいのですが、レイドセットをライブで再構成できないという制限があります。サーバーには、最初は部分的にしか入力されていません。ドライブを追加するには、ファイルシステム全体をエクスポートし、再構成してから、ファイルシステムをインポートする必要があります。

私はもともと、HAST + CARPを使用してノードを処理する純粋なFreeBSDシステムを計画していました。 HASTはGEOMデバイスでのみ実行でき、zpoolが除外されるため、ドライブごとに実行する必要があります。システム上のHASTデバイスの数には制限がありますが、この制限が何であるかを知ることができませんでした。

代わりに、私は完全な応急修理または良い答えになる可能性があるものを考え出しました。これが提案されたシステムです。 OS用に1つのエンタープライズグレードSSDがあり、データ用に25の利用可能なホットスワップベイがあります。

Linux + mdadmを使用してマシンを構築します。 RAID-6としての2x120GSSD、RAID-1および8x500GSSD。 xenをインストールし、オペレーティングシステム用のRAID-1とzpool用のデバイスとしてのRAID-6を備えたFreeBSD仮想を構築します。この仮想はストレージサーバーです。

これにより、リソースを使用する追加のレイヤー(xen)を犠牲にして、mdadm、zfs、hast、carpの利点が得られます。 HASTは、RAID-6上でセカンダリマシン(まったく同じように構築されている)に対して実行されます。

「あなたはばかです」から「私には大丈夫だと思います」まで、フィードバックがあればいいのですが、できればその背後に理由があります。

ありがとうございました、

ロッド

6
Rod

抽象化レイヤーが多すぎて、耐えられないと思います。

ZFSは問題ありません。必ずしもすべてのデータを単一の名前空間に含める必要はありませんか?

注意深く実行すれば、ZFS zpoolを拡張できますが、必要なストレージのニーズと拡張について計画する必要があります。

ZFSでの高可用性も可能です。参照: https://github.com/ewwhite/zfs-ha/wiki

4
ewwhite