web-dev-qa-db-ja.com

RAID再構成にはどのくらい時間がかかりますか? (Adaptec 6805)

新しいAdaptec 6805(「E」モデルではない)のさまざまなRAID構成を実験しています。付属のminiSAS-SATAケーブルを使用して、8台のHitachi 5400RPM 2TB SATA 6Gbドライブが接続されています。

各コネクタから2つずつ、4つのディスクで構成されるRAID6アレイを作成しました。次に、アレイを残りのディスクに拡張してみました。

私の問題は、レイドの再構成が決して進んでいないように見えることです。 24時間以上経過しても、Adaptec Storage Managerは0%の完了を示しています。私は積極的に論理配列を使用していないので、それが重要な要素であるとは思えません。

  • これは、オンライン再構成では正常ですか?
  • これは、ドライブが故障した場合にアレイを再構築するのにかかる時間を示していますか?
  • アレイのオフライン再構成を強制することは可能ですか?それが物事をスピードアップすると仮定します。

編集:

回答ありがとうございます。明確にするために、ドライブに負荷はなく、データはほとんどありません(〜5GB)。約35時間後、ようやく約1%が表示されたので、あきらめてアレイを削除しました。

私の主な懸念は、本当に:1%を行うのに35時間ほどかかる場合、外挿すると、ドライブが故障した場合に再構築を行うのに4〜5か月ほどかかることになります。

ドライブを取り外し、再構築にかかる時間を確認することで、これをテストします。

7
user65539

SASバックプレーンに20x2TB 7200 RPMドライブを備えたAdaptec 5405Zがあります。 8台のドライブから20台のドライブに移動するように再構成しようとしました。セキュリティビデオストレージに使用します。ボックスは本質的に新品だったので、アレイ上の2TBのデータでどれだけの時間がかかるか見てみませんか。約1週間後、10%に達しただけで、あきらめました。それをバックアップし、ワイプしてやり直しました。 RAID 10とRAID 5で同じテストを試しましたが、どちらもクロールしているように見えましたが、最終的には終了していました。実際には、私のDVRソフトウェアが常にディスクに書き込むことによって再構成を遅くしていることは確かです。ドライブの追加の負荷を再構築に含めましたか?

明らかに、私にはあなたよりもいくつかのドライブがありますが、何らかの理由で、再構成はかなり長い間続いています。 Adaptecに質問に答えさせようとしたところ、「構成とアレイ上のデータの量に依存している」という答えがあったため、あまり役に立ちませんでした。

4
MikeAWood
  • 通常は相対的です。オンラインでの再構成には数時間かかります。正確な時間は、ディスクのサイズを単一のドライブのスループットに少しオーバーヘッドを加えたもので割ったものです。アクティブに使用すると、小さなオーバーヘッドが大きなオーバーヘッドに変わります。しかし、進歩がない24時間は長すぎます。
  • はい、これはリカバリの場合に必要な正確な時間であると推定できます。
  • それは可能であるべきです。起動時のコントローラーの構成セットアップ内から。
3
mailq

0%ビットは少し奇妙ですが、アレイが完全に空の場合、再構成は非常に速く、確かに1時間以内に完了すると予想します。とはいえ、データが存在する場合、この種の処理には数日かかる可能性があり、それらのディスクは大きくて遅いため、どちらの方法も役に立ちません。これは、再構築にかかる時間を示しています。システム管理者が大容量の低速ディスクを使用するときにR5またはR6を使用したくないのはそのためです。

アレイにデータがない場合、またはすぐに別のドライブに移動できる場合は、アレイを破棄して、必要に応じて再構築することを検討してください。個人的に私は3TBドライブを購入し、R10はそれらを購入しましたが、それはあなたの電話です。

3
Chopper3

Adaptec 5805(BBUあり)はここで、8ディスクRAID5アレイをアップサイズしようとしています。最初に、すべての2TBディスクを3TB(ニアラインSASドライブ)に交換しました。ここで、すべての再構築(もちろん、1つのディスクを交換するたびにアレイが劣化しました)には約3日かかりました。

すべてのディスクを交換した後、最大13 TBのLUNから新しい最大19 TBへのアップサイジングを開始しました。 1週間後、このタスクの約10%が完了しました。

2
Christoph

これは長いようです-5805Z(BBU)、RAID 6、ホームサーバーに12x 750GBがあります。ドライブを1つ紛失した場合、再構築に最大4時間かかりました。その再構築中に、別のドライブが停止しました(そのため、私はRAID 5を絶対に使用しませんでした-再構築/ OCEのように、ディスクは常に高負荷で失敗します)。それも約4時間かかりました。

4 750を3TBドライブに交換し、追加のスペース(つまり4x〜2TB)に2つ目のRAID6アレイを作成しました。先週、私は別の750GBドライブを3TBに交換し、2番目のアレイを拡張(つまり2x 5TBに)しました-1週間弱かかりました(4TB-> 6TBから)。

それで、アレイ全体を一度にアップサイズしていますか?鉱山は週に2TBを追加しているようです。あなたは3 *(2TB /週)または3週間の合計、33%/週に外挿するでしょうが、数学がそのようにスケールするかどうかはわかりません。追加のスペースに2番目の配列を定義する方がはるかに高速だったでしょう...

1
Toyzrme

オンライン容量拡張速度に関する私の最近の経験を追加するには:

  • Adaptec 7805Q、maxCacheが無効になっている(必須)
  • 2x WD Gold 6 TBで構成されるRAID 1
  • 元のアレイサイズ3 TB、6 TBに拡張

オンライン容量の拡張には、約36時間かかりました。既存の3 TBパーティションはほぼいっぱいでした。WindowsServer 2016 R2で起動しましたが、ドライブに負荷はありません。

1
Ondrej Tucny

ここに私の2 thoseを興味のある人に提供しています...

2009年以来、Highpoint RocketRAID 4321(IOP348 1.2GHz)3Gb/sのRAID6構成でHGST 2TB HDDを使用していますSAS SFF-8088を介して15ベイストレージタワーに接続されたコントローラーAcera ARC-8020-16 3Gb/sを搭載SASエキスパンダー。エラーなしの高速ファイル転送のために2012年までに最大容量まで拡張されました。今日まで、私はまだすべてのオリジナルHDDを使用して、最近ストレージコンテンツと主にメディアコンテンツを混在させ、最も重要なコンテンツが私の2TB Dropboxアカウントに確実に保存されるようにします...

今年、HGST HDDを使用することに決めた後、最初の10TB HDD(10.0TB HGST Deskstar NAS 3.5-inch SATA 6.0Gb/s 7200RPM-HDN721010ALE604))を購入し、それをプライマリプレックスにしました数か月間のメディアサーバーストレージ...

1台のHDDをすぐにいっぱいにした後、5ドルのAdaptec 6805T SAS RAIDコントローラーとAFM-600モジュール(4G NAND ZMM))をそれぞれ25ドルで購入しました。そのため、 RAIDを備えたPlexメディアサーバーのアップグレードですが、最初に、ラボのESXi 6.5サーバー[dual Xeon x5690 3.46 GHz(24スレッド)および96GB RAM=)でRAIDコントローラーをテストしたいと思いました。 SR-2 Classified motherboard based on the Intel 5520 chipset]。2017年8月から最新のビルド19204で各コントローラをアップグレードおよびテストした後、VMware 6.0ドライバv1を使用して、VMwareサーバでmaxView Storage Managerとともにコントローラを構成することに成功しました.2.1-52040_certおよびVMware 6.0 maxView Storage Manager v2.05_22932.

6805Tを10.0TB HGST Deskstarで使用することについていくつかの徹底的な調査を行いましたNAS 3.5インチSATA 6.0Gb/s 7200RPM(HDN721010ALE604)HDD)、HGST UltraStarのHDDさらに、Ask Adaptecの記事「SATAおよびSAS 2TB以上のサイズのディスクドライブ)のサポート」が見つかりました。ここで、シリーズ6、6E、6T、6Qコントローラーは一般的に10TB HDDでテストされ、12TB HDDはサポートされ、14TB HDDはテストされなかったと一般的に述べられていたので、私は計画を進めました。

まず、10 TBのHDDを4台購入し、MacSales.comからそれぞれ$ 299.75で購入した(当時は非常に良い買い物で、平均価格から$ 30も割安だった)。納品後、46時間かかったRAID 5ビルドから始めました。

Building/Verifying 4x 10TB HDDs RAID5 
Start: Sat/20181103 20:51:26
Complete: Mon/20181105 18:53:54

次に、単一のHDDのすべてのコンテンツをコピーしてコントローラーに追加し、30 TBのストレージを提供する5x HDDで構成されるRAID 5からRAID 6への移行を開始しました。それは進行中であり、はるかに長くかかっています:

Reconfiguring (Migration/Expansion: RAID6 after adding Connector 0: Device 3 (very first 10TB HDD used as a single drive for weeks…)
Start: Thu/20181108 16:49
20%: Sat/20181110 17:00
27%: Sun/20181111 17:00
34%: Mon/20181112 17:00
42%: Tue/20181113 17:00
48%: Wed/20181114 17:00

このプロセスには合計で2週間弱かかると思います。この投稿が完了したら、必ずこの補遺を追加します。

RAID 6アレイの拡張を見込んで、さらに3台のHDDを特別価格で購入しました。その結果も、この投稿の補遺として報告します。

私は最近、中古のAcera ARC-8026-24 6Gb/s SASエクスパンダーを150ドル(私の15ベイストレージタワーで動作確認済み))をピックアップしました。これは6805Tでテストします。これらはフォローアップ補遺にもつながります。

20181123の更新:30 TB 4x 10TB RAID5から5x RAID6への再構成には、初期の進捗状況から予想されるよりも少し時間がかかりました。全体の再構成には2週間弱ではなく15時間がかかりました日、1時間、34分:

Start: Thu/20181108 16:49
20%: Sat/20181110 17:00
27%: Sun/20181111 17:00
34%: Mon/20181112 17:00
42%: Tue/20181113 17:00
48%: Wed/20181114 17:00
54%: Thu/20181115 17:00
60%: Fri/20181116 17:00
67%: Sat/20181117 17:00
73%: Sun/20181118 17:00
79%: Mon/20181119 17:00
85%: Tue/20181120 17:00
90%: Wed/20181121 17:00
94%: Thu/20181122 17:00
99%: Fri/20181123 17:00
100%: Fri/20181123 18:34

RAIDアレイの再構成中にいくつかのサーバーの再起動だけでなく、アレイでいくつかの読み取り/書き込みを実行していたことに注意したいと思います。

再構成中、読み取り/書き込みパフォーマンスは15〜25 MBpsに大幅に低下しました。しかし、再構成後、500 MBpsの読み取りと300 MBpsの書き込みを取得し、SSDでテストして、RAID 6のパフォーマンスが最大になることを確認しました。 Windows 10のタスクマネージャーによると、RAID6システムが最大になっていることさえ疑っていました。パフォーマンスタブの読み取り値が97%を超えることはありません。

また、同じAdaptec 6805Tコントローラーで10TB 2x 10TB RAID1を作成し(RAID 5からRAID6への再構成が行われている間、クイック初期化はほんの数秒でした)、RAID1アレイからRAID6アレイにコピーしてスループットをテストしました。移動される500GBのデータは150MBpsを少し超えており、RAID1はWindows 10タスクマネージャー-パフォーマンスタブ、RAID6アレイの平均75%およびRAID1アレイの平均95%によるRAID6よりも少し課税されています。 (RAID6:コネクタ0、デバイス3およびコネクタ1の5x 10TB HDD、デバイス0-3、RAID1:コネクタ0、デバイス1-2の2x 10TB HDD)。

次のステップは、30 TB(5x 10TB HDD)から40TB(6x 10TB HDD)へのRAID6アレイ拡張の実行にかかる時間を決定することです。

0
WirelessDude