web-dev-qa-db-ja.com

IPoIB(IP over InfiniBand)とRDMAのパフォーマンス

私は部分的にLinux HAクラスターを継承しています。その中心にある2つのDebianホスト間でIPoIB(IP over InfiniBand)を介してDRBD 8との接続を現在提供しています。壊れてないので直さない。

また、DRBD 9がRDMAをサポートしていることにも気づきました。そのため、将来、RDMA(つまり、「ネイティブ」のInfiniBand)を介して接続をDRBD 9に置き換えるかどうかという疑問が生じるかもしれません。

本番システムでパフォーマンステストを実行したくないので、疑問に思っています。IPoIBとRDMA/InfiniBandのパフォーマンス比較が公開されていますか。たとえば、IPoIBから10%、50%、または100%の桁で切り替えて、帯域幅/待機時間の増加を期待できますか?何が期待できますか?

8
rookie09

これらのプレゼンテーションを見ましたか? https://www.linbit.com/en/drbd-9-over-rdma-with-micron-ssds/http://downloads.openfabrics.org/Media/Monterey_2015 /火曜日/tuesday_09_ma.pdf

InfiniBandはRDMAを提供する特定のネットワークアーキテクチャにすぎませんが、パフォーマンスは、実行しているアプリケーションのタイプによって異なります。私の経験は、主にMPIベースのアプリケーションを使用する学術/研究システムに基づいています。特定のケースでは、RDMAがIPoIBより20%優れていることを確認しました。しかし、そのようなベンチマークについては知りませんが、多数の学術論文とベンダーのホワイトペーパー。I/ Oのみを検討している場合は、ファイルサイズ、読み取り数と書き込み数の比較を検討してください。RDMAは通常、ランダムな小規模な読み取りには大きなメリットをもたらしますが、書き込みには小さなメリットのみをもたらします。RoCE(RDMA over Converged Ethernet)とInfiniBandネイティブRDMAについて読むことをお勧めします。

6
Tux_DEV_NULL