web-dev-qa-db-ja.com

HP gen 5 SAS RAIDケージをサードパーティ(3ware、LSI)コントローラーに接続していますか?

私はお金を節約するために転用することを考えているML350G5を持っています。 FreeNASをインストールしようとしていますが、それ(ZFS)は、私が読んだものからマザーボードの一部であるHPe200iカードではうまく機能しません。中古のpciex4/x8 RAIDカードを安価に購入し、バックプレーンに直接接続して、ドライブにLFFケージを引き続き使用できるようにしたいと思います。

バックプレーンは2ea4レーンを使用しているようですSAS両端にsff-8484コネクタが付いたケーブル-1つを切断し、ブレークアウトケーブルを使用して、アドインRAIDカードに再ルーティングできますか? 、これにより、ケージを電気的に半分に分割できます。e200iを使用して3台のドライブ、新しいカードを使用して3台のドライブです。

RAIDバックプレーンまたはHPバックプレーンの一部であるロジックの量がわかりません。 HDからRAIDコントローラーへの電気接続のみを行う「ダム」コンポーネントなのか、それとも基本的に独自仕様の互換性を実現するロジック機能を実行する「スマート」なコンポーネントなのかはわかりません。

考え?ありがとう!

1
Rich Barrett

サーバーのそのモデル/ヴィンテージ(2005年から2008年頃)を扱っていた場合、おそらく既存のセットアップを利用するでしょう...いくつかのポイント:

  • G5ML350の6ディスク3.5 "バックプレーンはダムコンポーネントです。RAIDロジックやSAS拡張機能は組み込まれていません。
  • このバックプレーンとケージは、anyRAIDコントローラーまたはSAS HBA、適切なケーブルを使用している場合)に接続できます。バックプレーン側のSFF-8484 、新しいコントローラーを使用している場合は、コントローラー側のSFF-8087もあります。
  • これは古いハードウェアなので、PCIeスロットの制限を理解してくださいSAS帯域幅(3.0Gbps)
  • SATAドライブを使用する場合、期間が正しいHP Smart Arrayコントローラー(E200i、P400、P800)を使用すると、リンク速度はディスクあたり1.5Gbpsに制限されます。

どうすればいいですか?

  • FreeNASをドロップします。これはそれほど優れたソリューションではなく、HP ProLiantプラットフォームの一部が失われます 監視機能 。 FreeNASの下でのディスク上のZFSフォーマットも 少し風変わりな です... FreeNASはいくつかの飼料でした [〜#〜] wtf [ 〜#〜]ServerFaultの質問
  • 代わりに、ZFS-on-Linuxまたはそれを活用するアプライアンスパッケージの方が適しています。 QuantaStor または ZetaVault の無料のコミュニティエディションをチェックしてください。

最後に、この規模のハードウェアでは、既存のHP Smart ArrayE200iコントローラーを使用するのが理にかなっています。

  • ZFSに焦点を合わせたOSとJBOD対応のコントローラーまたはHBAのアプローチを採用する場合は、データだけでなくOSにもディスクを割り当てる必要があります。これは、ディスクスペースの潜在的な浪費です。ディスクのパーティションまたはスライスを使用してこれにアプローチすると、ZFS構成が非常に複雑になります。
  • E200iは有能なコントローラーであり、書き込みキャッシュの利点があります(RAIDバッテリーが存在し、正常である場合)。
  • 本当にZFSを使用したい場合は、そうすることができます ハードウェアRAIDコントローラーの上に 。ハードウェアアレイの監視の容易さと柔軟性を維持しながら、いくつかのZFS機能(スナップショット、圧縮など)を提供するために、これを常に行っています。
  • HP Smartアレイコントローラーは、ディスクのグループ(「アレイ」)から複数の論理ドライブ(ブロックデバイス)を提供するように構成できます。以下の例では、4つの500GBSATAディスクを備えたML350G5サーバーでE200iを構成し、72GBのOSドライブと240GBおよび200GBのドライブを個別のZFSzpoolとして使用できるようにしました。

    Smart Array E200i in Slot 0 (Embedded)    (sn: QT8CMP3716     )
    
    Internal Drive Cage at Port 1I, Box 1, OK
    
    Internal Drive Cage at Port 2I, Box 1, OK
    array A (SATA, Unused Space: 0  MB)
    
    
      logicaldrive 1 (72.0 GB, RAID 1+0, OK)
      logicaldrive 2 (240.0 GB, RAID 1+0, OK)
      logicaldrive 3 (200.0 GB, RAID 1+0, OK)
    
      physicaldrive 1I:1:1 (port 1I:box 1:bay 1, SATA, 500 GB, OK)
      physicaldrive 1I:1:2 (port 1I:box 1:bay 2, SATA, 500 GB, OK)
      physicaldrive 1I:1:3 (port 1I:box 1:bay 3, SATA, 500 GB, OK)
      physicaldrive 1I:1:4 (port 1I:box 1:bay 4, SATA, 500 GB, OK)
    

zpoolステータス出力

  pool: vol1
 state: ONLINE
  scan: scrub repaired 0 in 1h33m with 0 errors on Thu Jan  1 09:19:21 2015
config:

    NAME                                       STATE     READ WRITE CKSUM
    vol1                                       ONLINE       0     0     0
      cciss-3600508b1001037313620202020200007  ONLINE       0     0     0

errors: No known data errors

  pool: vol2
 state: ONLINE
  scan: scrub repaired 0 in 2h3m with 0 errors on Thu Jan  1 09:49:35 2015
config:

    NAME        STATE     READ WRITE CKSUM
    vol2        ONLINE       0     0     0
      cciss-4542300b6103731362020202067830007      ONLINE       0     0     0
0
ewwhite