web-dev-qa-db-ja.com

10GbE VMware分散スイッチのiSCSI設計オプション? MPIOとLACP

データセンターで、いくつかのVMware vSphere5.5および6.0クラスターのストレージバックエンドの拡張に取り組んでいます。私は主にVMwareエクスペリエンス全体(Solaris ZFS、Isilon、VNX、Linux ZFS)でNFSデータストアを使用しており、環境に Nimble iSCSIアレイ を導入する可能性があります Tegile(ZFS)ハイブリッドアレイ

現在のストレージソリューションは、NexentaZFSおよびLinuxZFSベースのアレイであり、vSphereホストにNFSマウントを提供します。ネットワーク接続は、ストレージヘッドの2 x 10GbELACPトランクと各ESXiホストの2x10GbEを介して提供されます。スイッチはデュアルです Arista 7050S-52 トップオブラックユニットは MLAGピア として構成されています。

VSphere側では、2 x 10GbEアップリンクでLACPボンドを使用して構成されたvSphere分散スイッチ(vDS)を使用しており、 ネットワークI/O制御(NIOC) シェアをVMポートグループ、NFS、vMotion、および管理トラフィック。

enter image description here

このソリューションと設計アプローチは何年にもわたって素晴らしく機能してきましたが、iSCSIブロックストレージを追加することは私にとって大きな変化です。近い将来、NFSインフラストラクチャを保持する必要があります。

物理的な設計を変更せずにiSCSIをこの環境に統合する方法を理解したいと思います。 ToRスイッチのMLAGは私にとって非常に重要です。

  • NFSベースのストレージの場合、LACPはパスの冗長性を提供するための一般的に受け入れられている手段です。
  • ISCSIの場合、LACPは通常眉をひそめ、MPIOマルチパス設計が推奨されるアプローチです。
  • 私はどこでも10GbEを使用しており、各サーバーへの単純な2ポートリンクを維持したいと考えています。これは、ケーブル配線と設計の簡素化のためです。

上記の場合、iSCSIソリューションを最大限に活用するにはどうすればよいですか?

  • LACPを介してiSCSIを構成しますか?
  • VDS上にVMkerneliSCSIアダプターを作成し、それらを別々のアップリンクにバインドして、ある種のミュータントMPIOを実現しますか?
  • ネットワークアダプタを追加しますか?
9
ewwhite

基本的なリンクの冗長性よりも実際にはメリットがないため、iSCSI overLACPを実行することはお勧めしません。

ソフトウェアiSCSIHBAを使用してvDSでiSCSI用のVMkernelスイッチを作成することは、まさにあなたがすべきことです。これにより、真のMPIOが得られます。このブログ投稿は、標準のスイッチから移行する必要性を無視して、あなたがやろうとしていることにいくらか関連しているようです: https://itvlab.wordpress.com/2015/02/14/how-to-migrate-iscsi- storage-from-a-standard-switch-to-a-a-distributed-switch /

ISCSI用にすでに2つある場合は、ネットワークアダプターを追加する必要はありません。ただし、iSCSIネットワークでジャンボフレーム(MTU 9000)を有効にすることをお勧めします。これは、VMkernel、vDS、物理スイッチ、SANアプライアンスなど、ネットワークのすべてのレベルで設定する必要があります。

1
Tim