web-dev-qa-db-ja.com

XenServerでiSCSI MPIOを使用して帯域幅を増やす方法

4つのネットワークインターフェースを備えたFreeNASサーバーがあります。 iSCSIトラフィックはそれらの2つのインターフェースを通過し、各インターフェースは異なるサブネットに1つのIPアドレスを持っています。例として:

igb0:192.168.10.1/24 igb1:192.168.11.1/24

ISCSIトラフィック専用のインターフェイスが1つしかないXenServerホストが3つあります。したがって、回路図には、ストレージ上の2つのインターフェイスと、ホスト上の合計として3つのインターフェイスがあります。

私の計画は、ホストとの最大2ギガビットの接続を実現することでしたが、ホストあたり1ギガビットに制限されていました。

問題は異なるサブネット化から始まります。 XenServerホスト上の同じネットワークインターフェイスに2つの異なるIPアドレスを配置する方法がわかりません。 XenCenterでは、これを許可していません。別のアイデアは、この種のトラフィックを異なるVLANで分離することでした。大丈夫ですが、これも機能していないようです。

編集:残念ながらLACPは期待どおりに機能しません。FreeNASドキュメントに関する詳細情報があります:「LACPおよびその他の形式のリンク集約は、一般に仮想化ソリューションではうまく機能しません。仮想化環境では、 iSCSIポータル。これにより、iSCSIイニシエーターはターゲットへの複数のリンクを認識し、それらを利用して帯域幅または冗長性を向上させることができます。このハウツーには、ESXiでのMPIOの構成手順が含まれています。」

そのため、VLANとハックを使用してMPIOをセットアップし、ストレージの2Gビット/秒を実現しようとしています。

3

各ホストにiSCSIのインターフェイスが1つしかない場合、ここで説明した設定でMPIOを使用することはできません。ただし、リンク集約(LACP)を使用するようにFreeNASシステムを構成して、2つのホストをそれぞれ1Gbで同時にサービスできるようにする必要があります(FreeNASからの合計2Gb)。 MPIOの代わりに、LACPを調べます(または、2番目のNIC)を取得します)。

編集:LACPが仮想化に一般的に推奨されない理由は、LACPが人々が期待することを行わないためです。彼らは通常、ホストに2つのNICとストレージに2つのNICを配置することで、1つのVM(またはその1つのホスト上の複数のVMから)の場合でも、ストレージへの帯域幅を2倍にできる) 。それはそのようには機能しませんが、MPIOは適切に構成されている場合は機能しますただし、これは明らかにあなたがしようとしていることではありません。元の質問を正しく読んだ場合、2つあります。ストレージボックス内の1Gb NIC、および各XenServer Host内の1Gb NIC(少なくともストレージ用-当面は他のネットワーク接続を無視しましょう)。必要なのはストレージホストへの接続を同時に飽和させることができるようにする各ホストストレージボックスのLACPは、ここでの正しい解決策です(XenServerホストにLACPは必要ありません。これは、ホストにNICそれぞれ1つ)しかないためです。

MPIOでこの作業を行うことに本当に固執している場合、それは可能ですが、ひどい汚いハックになります。基本的には、各ホストをダミーで構成する必要がありますNICotherストレージネットワーク上で、次にXenServerは、MPIO構成で2つのNICを使用します。XenCenterでは、そのように構成できません。そのため、コマンドラインからハッキングする必要があります。その方法を説明するつもりはありません。それはwrongするべきことです。構成を変更すると壊れる可能性が高く、 XenServerをアップグレードします。

コミュニティを信頼する:ストレージボックスでのみLACPを構成すると、ここで必要なものが得られます。類似の構成が必要な場合は、2Gb NICをFreeNASボックスにインストールすることと考えてください。もちろん、10Gbを追加することで、 NIC FreeNASボックスに入れ、ホストが接続されているスイッチの10Gbポートに接続しますが、スイッチには10Gbポートがないと思います。)

12
Jed Daniels

NFSにはLACPを使用。iSCSIにはMPIOを使用。

ハイパーバイザーホストにストレージインターフェイスの冗長性がない場合、それが注目すべき点です。ハックなし、でたらめなし。追加のNICをホストに追加し、MPIOを構成します。

13
ewwhite

[〜#〜] lacp [〜#〜]

リンクボンディングは、IP層(L3)ではなく、イーサネット層(L2)で発生します。 LACPプロトコルには、L2ハッシュ、L3ハッシュ、またはL4ハッシュ(つまり、TCP/UDPポート番号を調べる)のハッシュが含まれ、このハッシュ(設計上)は、単一のセッションが複数の物理インターフェイスにまたがることを防ぎます。したがって、LACP全体で1つのターゲットに対する1つのiSCSIセッションでは、せいぜい1つのインターフェースの速度しか得られません。

[〜#〜] mpio [〜#〜]

特定のIPアドレスで単一のイニシエーターと単一のターゲットの間で複数のセッションを開くことが可能であり、これがLACP結合接続を介して移動する場合、理由がいくつかあります。残念ながら、イニシエーターとターゲットのすべての組み合わせがこれをサポートするわけではありません。 Citrix XenServer 6.2(拡張バージョンではなく、自由にダウンロードできるインストーラー)を使用したテストでは、マルチパスIOが有効になっている場合、各IPアドレスに対して1つのセッションしか開かないことがわかりました。したがって、複数のパスが必要な場合は、複数のインターフェースに複数のIPアドレスを設定する必要があります。

Linux open-iscsiの新しいバージョンには追加の機能があるため、Xenserverもある段階でこれを取得すると思います。

2
Tel