web-dev-qa-db-ja.com

SLES10サーバーへの60TBストレージの追加

SLES10サーバーにアーカイブ\ステージングストレージを追加する必要があります。要件は、大きな画像ファイル(ほとんどの場合150Meg Tiff)を含むアーカイブデータ(文字通り、これはライブラリ用)を格納するために使用されるかなり大きなボリューム(それぞれ約9〜20TB、合計で約60TB程度)を提示することです。と大きなタールボール。データは、IOを読み取るように圧倒的にバイアスされ、確かに> 95%、おそらく99%を超えます。

ストレージはすでに購入済みです-DellMD3000 SAS 2台のMD1000がデイジーチェーン接続されて2TB7200 RPM SATAドライブ、合計45台のドライブが搭載されています。アレイのスタックは2つのデュアルポートを使用して接続されています外部SASアダプター、つまりスタックへのパスは4つあります。

私の意図は、これらを4つのRAIDグループに配置された4つのボリュームのセットとして構成し、アレイごとに1つのホットスペアを配置することです。すべてのグループは、7台または14台のドライブを備えたRAID 6になり、各RAIDグループは、そのグループのすべての容量を使用する単一のLUNとして表示されます。 SLES側では、これらをXFSボリュームとしてフォーマットする必要があります。

私はSLES(および一般的にLinux)の経験が限られており、これに関するいくつかの推奨事項を探しています。具体的には次のとおりです。

  1. SLES 10でこのサイズのXFSボリュームを構成する際に注意すべき特定の事項はありますか?つまり、IOプロファイルが与えられた場合、デフォルト設定は問題ありませんか?
  2. これらを初期化\パーティション\フォーマットするための最良の方法は何ですか? Partedを使用してディスクラベルを設定し、YASTパーティションマネージャ(すべてのデフォルトを受け入れる)を使用して、最初のテスト用にXFSボリュームを作成およびフォーマットしました。
  3. マルチパスを設定するにはどうすればよいですか?最初のテストボリュームを提示すると、4つの別個のデバイス(/ dev/sdl、/ dev/sdm、/ dev/sdn、および/ dev/sdn)として表示されます。これを単一のボリュームとして処理するにはどうすればよいですか?
  4. 最初のテストでは、既存のEMC Clariion SANボリュームは約30Meg /秒です。これは、RAID 6の書き込みを考慮しても、予想よりもはるかに低いです。ペナルティ私は70-100Meg /秒の球場で何かを見ることを期待していました。
  5. すべてが問題ないかどうかを確認するにはどうすればよいですか?エラーや警告などをどこで探す必要がありますか?たとえば、YASTパーティションエディタの起動には非常に長い時間がかかります。その理由を理解したいと思います。
  6. これを別の方法でパーティション分割したり、別のファイルシステムを使用したりしますか?その場合、その理由は何ですか?

サーバーはDell2950です。詳細な仕様は確認していませんが、上部には使用率がせいぜい1桁台前半で表示されています。

10
Helvick

以前の仕事でも同様の問題がありました。私たちはプラネタリウムの制作を行っていて、各フレームは64メガピクセルでした。大きな画像がたくさん。これらは、コンピューターのクラスター上で非常に積極的な読み取り操作で各劇場で処理されます。

この場合のサーバーには、同様のストレージ設定がありました。複数の外部直接接続RAIDアレイ。これらはそれぞれ、ホストに公開され、LVM(論理ボリュームマネージャー)の下のVG(ボリュームグループ)に追加されたRAID6ボリュームにありました。各ショー/プロダクションは、独自のLV(Logical Volume)、フォーマットされたXFSを取得し、必要に応じてプロジェクトとともに拡張します。

データセットがかなり静的であるか、このように予測可能な方法で成長する場合、このアプローチはうまく機能するはずです。ただし、このアプローチには欠点があることに注意してください。最終的には、ストレージ上のLVを細かく管理する必要があります。一部の管理者はこの方法を好みますが、他の管理者はそれを避けようとします。ただし、これにより、データセットの拡大に​​応じて、各LVおよびXFSファイルシステムを拡大できます。 XFSボリュームを可能な限り小さくして、完了までに何年もかかるfsckでスタックしないようにします。また、ファイルシステムが南下した場合のダメージコントロールとして機能します。

免責事項:今日これを設定する場合は、OpenSolarisとZFSを使用します。主にb/cで、マイクロ管理の問題を回避し、優れたファイルシステム/ボリュームマネージャーです。ですから、それも見てみたいと思うかもしれません。

4
3dinfluence

より多くのディスクとRAID10を購入するために、私ははるかに多く含まれるでしょう。

しばらく前に購入した何百もの1TBFATA(ファイバー接続SATA)ディスクで恐ろしい問題が発生しました。これらは、それぞれ1,000ポンドで、月に5%の損失があります。基本的に、これらは24時間365日のデューティサイクル用に設計されておらず、同じ問題が発生する可能性があるため、R10をお勧めします。

RAID6は正しい方向への一歩ですが、もしあなたが能力を持っていれば、少なくとも1つのディスクをホットスペアとして取っておきます-ディスクがアレイのどこかで死んだ場合、それはあなたを待っている間に飛び込んでストライプします故障したディスクを交換してください。その件については、交換の準備ができているスペアディスクが少なくとも2つまたは3つオンサイトにあることを確認してください。また、24時間年中無休で問題が発生したときに通知するすべてのアラート設定があることを確認してください。

パフォーマンスに関しては、これらの2GBディスクは7.2kディスクとしてはそれほど緩慢ではなく、SASは非常に高速である可能性があるため、前述のシーケンシャル読み取りでは70MBpsを期待します-明らかにランダムと書き込みかなり低くなります。

ネガティブに思えたら申し訳ありませんが、私は何年もの間ストレージと格闘していて、エンタープライズディスクシステムでしか簡単に眠ることができません-ローエンドのギアを修正するために48/72時間のシフトをあまりにも多く引いただけです。

4
Chopper3