web-dev-qa-db-ja.com

クラスタ化されたファイルシステムと組み合わせた、完全冗長で可用性の高いiscsi SAN(n台のマシンで構成される)の実装

インフラストラクチャがどのように見えるかの簡単な例:

4台のサーバーがiscsiターゲットとして機能し、それぞれ1x2TBを公開します(これらのサーバーはすべて、ストレージ用のraid10を備えているため、2TBの使用可能容量があります)

8 TB(上記の公開ディスクで構成:4x2TB)ディスクを接続する必要があるn台のサーバーでは、同時書き込みが必要です。すべてのサーバーが実際にストレージを共有します。

さて、それを達成する方法は?私はクラスター化されたfsに関して何の好みもありません。

よろしく、パトリック

2
Patrick

同じ論理ブロックデバイスへのiSCSIターゲットとして機能する2つのサーバーにまたがるDRBDは非常にうまく機能し、比較的単純です。このようなシンプルで安価なソリューションは、DRBDが優れている点であり、しばらくの間、ストックLinuxカーネルソースに含まれています。

http://www.drbd.org/

1
Doug

目的に応じて[〜#〜] ocfs [〜#〜]を使用することをお勧めします。構成で理解できないこと:1つのサーバーに障害が発生した場合はどうしますか?そのための冗長性はどこにありますか?

0
Nils

私は昨日、このニーズに似たものを実装しました。私たちの状況も同様でした。合計3台のマシン、1台は「ヘッド」、2台はiSCSIターゲットを介してデータを提供するだけでした。ヘッドとしてopenfilerを使用しました。これらは、iSCSIのマウントとネイティブNFS/CIFSとしての再予約を公式にはサポートしていませんが、ssh経由でログインしてマウントし、openfilerGUI内で通常どおりにボリュームに追加するのは簡単でした。用途の広いファイルシステム(XFS)を使用している場合、それらすべてを組み合わせて、時間をかけて拡張するのは非常に簡単です。

内部的には、これはopeniscsi + lvm + samba/nfsにすぎませんが、かなりうまく機能する傾向があります。

ただし、a)サポートされていない、b)少し扱いに​​くいため、いくつかの問題がありました。ダウンストリームiSCSIターゲットをマウントし、再起動から適切に機能させるなど、再起動時にすべてを正しく開始することができましたが、個々のSANが残りのユーザーに利用できなくなった場合は、問題が発生することが予想されます。キット。

幸運を

0
jizaymes