web-dev-qa-db-ja.com

VMware vSphereを使用する場合の、SAN-via-fibreからsan-via-iSCSIへの速度の利点の概算

SAN(Dell Powervault MD3000i、10x) 500 GB SASドライブ、RAID 5)は、Gbitイーサネットスイッチ(Dell Powerconnect 5424、「iSCSI最適化」と呼ばれます)のiSCSI経由で接続されます。

ファイバチャネルベースのソリューションがどれだけ速くなるか(またはより良い「感触」)を誰かが見積もることができますか?名目上の速度の利点を意味するのではなく、仮想マシンが効果的にどれだけ速く動作するかを意味しますか?

私たちは2倍の速度、5倍、10倍の速度で話しているのでしょうか。それは価格を正当化しますか?

PS:頻繁に使用されるデータベースサーバーやExchangeサーバーについては話していません。ほとんどの仮想化サーバーは、平均CPU負荷の3〜5%未満で実行されます。

4
Dirk Paessler

ここでパフォーマンス感に影響を与える決定要因はたくさんあります。考えられる微調整の1つは、ジャンボフレームの設定です。スコットロウは最近のブログ投稿を持っています ここ これを達成するために彼がしたことのいくつかを示しています。

ゲストのCPU負荷は低くなるとおっしゃっていますが、これらは常に仮想化の優れた候補ですが、FiberChannelとiSCSIの違いはまだ実際には機能していません。

Vmゲストがストレージを大量に消費する操作を実行する場合は、読み取り/書き込み操作をVMホストからストレージアレイに転送する速度がボトルネックになる可能性があることを考慮する必要があります。 。

通常のiSCSI転送速度は1Gbps(イーサネット経由)であり、FCは通常約2〜4 Gbps(使用する現金の量によって異なります)であるため、FCの転送速度は約2倍速いと言えます。 。

新しい10Gig-Eスイッチもありますが、PowervaultとPowerconnectはまだそれをサポートしていません。

ただし、これは、マシンが低I/Oでアプリケーションを実行しているように、実際には同じ速度で動作する可能性があるため、マシンがより高速に動作することを意味するわけではありません。

どちらが良いかについての議論は決して終わりません、そしてそれは基本的にあなた自身の評価と結果に依存します。

FCベースのミニクラウドとiSCSIベースのミニクラウドが複数展開されており、どちらも非常にうまく機能します。ボトルネックはストレージアレイレベルにあり、1Gbイーサネット上のiSCSIトラフィックではないことがわかりました。

5
Mike Fiedler

トランスポートの速度よりも、スピンドルの数がボトルネックになっている可能性が高くなります。

つまり、はい、FCの生の速度はiSCSIよりも高速ですが、(仮想的に)6つのスピンドル(物理ディスク)から200個のVMを実行しようとすると、実行しようとしている場合よりもパフォーマンスが低下します。 iSCSIを介して24スピンドルから200VM。ほぼアイドル状態のラボ環境では、VM(240ish vs 117)あたり約2 NFS opsで実行しているため、IOあなたが持っているでしょう。

非常に高い連続性があることを知らない限り、トランスポートに基づいて大きな違いは見られないと思いますIO(重い機器データログストリーム?ビデオアーカイブ?、わかりません正直なところ、実際のシナリオはこのようなものになる可能性があります)。

ディスクのIOPSが負荷を大幅に上回らない限り、トランスポートに気付くことはないと思います。私は他の基準を使って決定を下します(管理のしやすさ、コストなど)

前回ストレージを追加したときに、NetAppでNFSを使用しました。

4
jwiz

これは非常に顕著な変化です。正直なところ、最後の会社がVMwareベースの共有ホスティングを展開していたとき、LinuxサーバーベースのiSCSI(偽のiscsi)からファイバー(テスト環境)から本番環境に移行していました。 VMwareの担当者は、共有ストレージへのアクセスを必要とする単一のESXホスト上の複数のVMに関しては、ファイバーのオーバーヘッドがはるかに少ないと述べています。 Win2k3の一般的な使用法VMインスタンスのパフォーマンスは2倍になりましたが、VMでhdtuneを使用してテストしたディスクIOはDell2850よりも高速でした標準IO(メモリが機能する場合はperc4のRAID5で3x 73GB)トレーニング中、使用率の低い各ESXホストで5台程度のVMを実行していたことは確かです。その上に。

VMwareの担当者は、いくつかの全体的なベンチマーク、または少なくとも実際の実装ストーリー/比較を含む、ファイバーとiSCSIに関する多くのドキュメントを持っている必要があります。私たちの担当者は確かにそうしました。

2
skitzot33

4Gbps以上のFCSANに移行すると、全体的なIO機能が2倍になると思います。

大規模なFCサービスのVMWareファームがあり、ストレージコストを削減するというプレッシャーがあったため、NetApp 10Gbps iSCSIを使用して新しい拡張機能を構築し始めました。パフォーマンスの問題が発生したため、それらをすべてFCに移動しました。これは、私たちができる最善のことでした。ホストあたりのVMの数が2倍になり、iSCSIで見たのと同じパフォーマンスが得られます。

もちろん、非常に複雑なVM負荷プロファイルがこれを悪化させている可能性がありますが、FCを購入できる場合は、そのように強くお勧めします。

詳細に入ることができますが(実際、プロンプトが表示されれば喜んでそうします)、最終的にはiSCSIはほとんど「何の役にも立たない」製品であり、無料のランチについては誰もが知っています:)

1
Chopper3

問題が解決したことはわかっていますが、 FCとiSCSIに関するこの記事 をご覧になることをお勧めします。

1
Hofa

FCベースのSANすべて2Gbpsで、4Gbps HBAをテストしましたが、パフォーマンスに違いは見られませんでした。ボトルネックは常にドライブ速度であり、さらにFC8Gbpsを使用できます。ベースSANアレイ内のドライブがSATAまたは10Kドライブの場合でも、パフォーマンスの向上は見られません。RAIDタイプとアレイサイズにも依存します。また、Wordを使用するためのマイクのマイナス1 "雲。"

0
thebird

これは尋ねられませんでしたが、RAID 5が仮想環境に適しているかどうかだけ知りたいのですが、RAID 10を検討しましたか?

0
Taras Chuhay