web-dev-qa-db-ja.com

iSCSIで到達可能な2つのSFPポートのうちの1つのみSAN

HPNC523デュアル10GbEネットワークカードを備えたサーバーと、デュアル10GbEiSCSIコントローラーを備えたHPMSA1040ストレージがあります。

NC523の両方のポートはボンドとして構成されています。 MSAのポートには異なるIPアドレスがあります。

20Gbの帯域幅を使用するようにこのシステムを構成したいと思います(つまり、Linuxサーバーではボンド、MSAではマルチパス)。スイッチは使用しないでください。直接接続するだけです。

MSAの両方のポートが光ファイバーケーブルで接続されている場合、pingで到達できるポートは1つだけです(そのため、マルチパスを初期化できません)。すべてのハードウェアコンポーネントをクロスチェックしましたが、サーバーとMSAを接続する回線が1つしかない限り、すべてが可能な組み合わせごとに機能します。

誰かが私にこの問題の解決策を提案できますか?

p.s。

「通常の」クアッド1GbE銅線ネットワークカードとクアッド1GbEi​​SCSIコントローラーを備えた古いHPP2000ストレージを備えた別の同様のサーバーがあります。ここでも同様の構成で問題なく動作します。サーバー上の4つのインターフェイスは単結合にバインドされており、iSCSIストレージの各ポートにpingを実行でき、マルチパスも機能します。どちらのマシンもCentOS7で実行されています。

5
Kris_R

SANベンダーから要求された場合を除き、iSCSIネットワークにLACPまたはその他の種類のネットワークアグリゲーションを使用しないでください。代わりにMPIO(マルチパス)を使用してください。

一般的に、チーミングは、各イーサネットフレームにテキスト文字列を追加することでネットワークオーバーヘッドを作成します。通常、1秒あたりのイーサネットフレーム数はそれほど多くないため、ワークロードが少ないとき、またはチーム化をNASプロトコル(NFS/SMB))と一緒に使用する場合、問題は発生しません。iSCSIトラフィックの場合これは本質的にブロックレベルのアクセスになり、特に小さい4k/8kアクセスパターンが使用されている場合、1秒あたりのフレーム数が非常に多くなる可能性があります。iSCSIネットワークがチーム化されている場合、LACPドライバーは各フレームを処理するため、CPU負荷が増加します。待ち時間が長くなります。

6
Net Runner

LACP「ボンディング」をiSCSIで使用することは想定されていません。これは、MPIOマルチパスを使用する必要がある状況です。

とにかく、この設定では20Gbpsの速度を達成することはできません(1つのサーバー->ストレージ接続)。それはボンディングやMPIOの仕組みではありません。

3
ewwhite