web-dev-qa-db-ja.com

実際にVMware ESXサーバーに使用するストレージの種類は何ですか?

VMwareおよび多くのネットワークエバンジェリストは、洗練された(高価な)ファイバーSANがVMware ESXおよびESXiサーバーの「唯一の」ストレージオプションであると告げようとしています。はい、もちろんです。 SANを使用すると、高速で信頼性が高く、vMotionが可能になります。ただし、すべてのESX/ESXiユーザーは本当にSANを購入できますか?

私の理論では、この地球上のすべてのVMware ESXインストールの20%未満が実際にファイバーまたはiSCS SANを使用しています。これらのインストールのほとんどは、これを購入できる大企業で行われます。ほとんどのVMwareインストールは「接続ストレージ」を使用すると予測します(vmdkはサーバー内部のディスクに格納されます)。それらのほとんどは中小企業で実行されており、非常に多くあります!

ストレージが接続された2台のESX 3.5サーバーと、iSCS sanが接続された2台のESX 4サーバーを実行します。そして、両者の「実際のライブの違い」はほとんど注目に値しません:-)

この質問の公式統計を知っていますか?記憶媒体として何を使用していますか?

27
Dirk Paessler

私は多くのVMwareコンサルティング業務を行っており、その割合はインストールベースの80%に近い高可用性共有ストレージ(FC、iSCSI、またはハイエンドNAS)を使用しており、私のクライアントの多くはSMEです。私が見つけた重要な要素は、今日のほとんどのビジネスにとって、サーバーの稼働時間を重要なものとして扱うかどうかです。

直接接続されたストレージから非常に高性能なVMを実行できます(RAID 10アレイに16の内部ドライブを備えたHP DL380 G6はかなり高速なディスクIOを持っています)が、VMwareまたはその他の仮想化環境を構築して数十、数百を置き換える場合、または何千ものサーバーを使用している場合、堅牢なストレージアーキテクチャに多くの労力(およびおそらくはお金)を費やさなければ、気が狂います。

ハイエンドを購入する必要はありませんSANクラスタリング機能用-かなり安いNAS(または仮想化されたSAN HP\Lefthand's VSAのような)まだ認定済みのストレージを使用しています。ただし、共有ストレージを使用していて、SAN\NASインフラストラクチャのすべてのポイントで冗長性がない場合は、テストよりもはるかに多く使用します。冗長性は、サーバーのデュアル(独立)HBAのストレージNIC、デュアル独立ファブリック、SANの冗長コントローラー、バッテリーバックアップキャッシュ\キャッシュのデステージング、冗長ホットスワップ可能なファンと電源など、RAID 5\6\10\50、適切な数のホットスペア。

システム間の実際の違いは、スタンドアロンシステムの1つに致命的な障害が発生した場合、システムを回復するために多くの作業を行う必要があり、パッチを適用し続けるだけでダウンタイムが発生することです。クラスター化されたSAN接続されたシステムでは、ハイパーバイザーにパッチを適用するか、ハイパーバイザーハードウェアをアップグレードするだけでも、ダウンタイムはゼロになります。致命的なサーバー障害は、再起動に必要な時間だけサービスを停止しますVM別のノード上(最悪))、またはこれらのVMにフォールトトレランスを適用している場合、ダウンタイムはまったくありません。

27
Helvick

高パフォーマンスの書き込みと読み取りの場合、FCのパフォーマンスは無敵であり、価格は高いですが...機能します...ありふれたパフォーマンスの期待のために、iSCSIは実際にはかなりうまく機能しているので、通常はFCディスクサブシステム上のサーバーメールボックスファイルとiSCSIインターフェイスディスク上の実際のブートドライブを交換し、DNSサーバーとActive DirectoryマシンもiSCSIから実行します。

1

ESXをSAN、NAS、DASで実行しました。それは完全に依存します:

  1. 予算
  2. 経験
  3. データセンターおよび/またはラックスペース
  4. お金

信頼性と速度の点で、SANに勝るものはないと思います。

信頼性とコストの面から、私はNASを使用します。

そして、スピードとコストのために、DAS。

個々のオプションが重複していないわけではありませんが、それらは私が目にした強みです。

1
warren

1000を超えるホストを持つ会社として、FCから始めてしばらくiSCSIを試してみましたが、パフォーマンスの問題によりFCに後退しました。 NFSを真剣に検討していますが、まだ結論はありません。ああ、私たちはHP XP/EVAと一部のNetAppを使用しています。ローカルストレージバーデスクトップ/開発ホストはありません。

1
Chopper3

ご覧のとおり、1つのサイズですべてに対応できるわけではなく、単一クラスのストレージソリューションである必要はありません。可用性とパフォーマンスの要件に応じて、複数のストレージクラスを持つことができます

1
allruiz

すべてに長所と短所があります...一番下の行はSLA、アプリケーションの負荷、およびスケールです。したがって、小規模な導入(1-5ホスト)で高性能のストレージが必要な場合は、おそらくNFSでそれを引き出すことができます(実際には、NFSでSAN using = RAMディスク)。今度はそれをスケーリングしてみてください。セットアップを大規模に複製するコストは、ニースに非常に匹敵することがわかりますSAN FCを唯一の論理にする熟読するオプション...ほとんどの場合、ニーズに応じてコストを最適化するために、単一のプラットフォームではなく、さまざまなサービス(アプリ、DB、バックアップ、アーカイブ)の組み合わせを使用します。

0
a.atlam

4つのESX 4サーバーを実行し、EqualLogic iSCSI SANを使用しています。

0
Richard West

小規模なインストールでは、まともなディスクがある限り、ローカルストレージは完全に許容されます。つまり、10000 RPM + SASドライブです。共有ディスクを使用する必要があるのは、このときだけです(意図的には言っていません)共有ディスクをオフにして、NFS共有にすることができます)ソリューションは、クラスタリングを実行する必要があるときです-VMWare HAおよびDRS。

現在、3層のストレージがあります。FibreChannelSAN、ハイエンドのEqualogix SAN、ローエンドのMD3000i SANです。最後の2つはiSCSIです。また、一部のサーバーは、ESXサーバーのローカルストレージから実行します。ほとんどがユーティリティサーバーで、1〜2時間ダウンしても問題がなく、すべてが正常に機能している場合は問題を修正します。

また、自家製のNAS 7.2k SATAドライブとiSCSIエンタープライズターゲットを使用してテスト環境を実行しています(パフォーマンスはそれほど良くありませんが、それでうまくいきます)。

多くの人々が、より大きな環境でもNFS共有に反対する傾向にあります。私はしばらくこれで遊びたかったが、時間を見つけられなかった。

0
Zypher

コモディティスイッチから構築されたiSCSIファブリックを備えた4つ(まあ、4つのライブ、1つはテスト用)のESXiホストを実行し、ローエンドのHitachi SAN-SMS-100。

そのレベルでも、SASバックプレーンにツインポートを備えたツインコントローラーがあり、どちらのコントローラーもディスクとツインnicsを捕捉できます。 ESXホストのツインNIC。

各vfsボリュームには4つの可視パスがあるため、かなり許容範囲があります。私たちはファブリックにDell poweredgeスイッチングを使用しています-それらには確かに潜在的な問題があります(少なくとも、冗長なPSUはありません)。

明らかに、より多くのナインが必要な場合は、より多くの費用をかける必要がありますが、iSCSI、ESXi、およびコモディティギガビットイーサネットキットの優れた点は、復元力とパフォーマンスの点であなたの体重を超えることができることです。

0
TheoJones