web-dev-qa-db-ja.com

storcliでRAID5アレイを拡張するにはどうすればよいですか?

新しいディスクを購入しました。データを失わずに既存のRAIDアレイを拡張するにはどうすればよいですか?

3
Aaron Digulla

間違えた場合は、すべてのデータが失われる可能性があります。最初にバックアップしてから続行してください。

storcli /c0 showを使用して、使用しているドライブとボリュームを確認します。 TOPOLOGYテーブルは良いスタートです:

TOPOLOGY :
========

----------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type  State BT      Size PDC  PI SED DS3  FSpace TR 
----------------------------------------------------------------------------
 0 -   -   -        -   RAID5 Optl  N  10.914 TB dflt N  N   none N      N  
 0 0   -   -        -   RAID5 Optl  N  10.914 TB dflt N  N   none N      N  
 0 0   0   252:0    10  DRIVE Onln  N   2.728 TB dflt N  N   none -      N  
 0 0   1   252:1    9   DRIVE Onln  N   2.728 TB dflt N  N   none -      N  
 0 0   2   252:2    11  DRIVE Onln  N   2.728 TB dflt N  N   none -      N  
 0 0   3   252:3    8   DRIVE Onln  N   2.728 TB dflt N  N   none -      N  
 0 0   4   252:4    12  DRIVE Onln  N   2.728 TB dflt N  N   none -      N  
----------------------------------------------------------------------------

これにより、RAIDアレイにすでに存在するディスクが表示されます。 IDが0のRAIDアレイ(Arr)が1つだけあります。

PD LISTはディスクを表示します:

PD LIST :
=======

--------------------------------------------------------------------------------
EID:Slt DID State DG     Size Intf Med SED PI SeSz Model                Sp Type 
--------------------------------------------------------------------------------
252:0    10 Onln   0 2.728 TB SATA HDD N   N  512B WDC WD30EFRX-68AX9N0 U  -    
252:1     9 Onln   0 2.728 TB SATA HDD N   N  512B WDC WD30EFRX-68AX9N0 U  -    
252:2    11 Onln   0 2.728 TB SATA HDD N   N  512B WDC WD30EFRX-68EUZN0 U  -    
252:3     8 Onln   0 2.728 TB SATA HDD N   N  512B WDC WD30EFRX-68EUZN0 U  -    
252:4    12 Onln   0 2.728 TB SATA HDD N   N  512B WDC WD30EFRX-68EUZN0 U  -    
252:6    14 GHS    - 2.728 TB SATA HDD N   N  512B WDC WD30EFRX-68EUZN0 D  -    
252:7    13 UGood  - 2.728 TB SATA HDD N   N  512B WDC WD30EFRX-68EUZN0 D  -    
--------------------------------------------------------------------------------

新しく追加されたディスクはUGood(未構成の正常)として表示されます。この例では、それはエンクロージャ13のスロット7にあるディスク252です。

ディスクをRAIDアレイに追加するには:

storcli /c0/v0 start migrate type=raid5 option=add drives=252:13

/c0はコントローラー、/v0は変更するRAIDボリューム(上記のTOPOLOGYまたはVD LISTを参照)、start migrateは発行するコマンド、type=raid5は「keep it RAID5」を意味し、ディスク(option=add)を追加する必要があり、drivesEID:Sltの形式で追加するディスクのリストです(PD LIST)。

このプロセスには数日かかる場合があります。コントローラがバックグラウンドで動作している間、RAIDボリューム上のファイルシステムを引き続き使用できます。サーバーを再起動することもできます。コントローラーは元の場所から続行します。

進行状況を確認するには、storcli /c0/v0 show migrateを使用します。

VD Operation Status :
===================

-----------------------------------------------------------
VD Operation Progress% Status          Estimated Time Left 
-----------------------------------------------------------
 0 Migrate          38 In Progress     49 Minutes                   
-----------------------------------------------------------

注:見積もりはかなりずれています。私の場合、49分は3時間でした。私の感じでは、2日8時間の最初の見積もりははるかに正確でした。

移行が完了すると、コントローラーは別のバックグラウンドジョブ(「バックグラウンド初期化」)を実行します。それが何かわからない.

完了すると、次のように出力されます。

VD Operation Status :
===================

-----------------------------------------------------------
VD Operation Progress% Status          Estimated Time Left 
-----------------------------------------------------------
 0 Migrate   -         Not in progress -                   
-----------------------------------------------------------

storcli /c0 showを使用して、RAIDボリュームの新しいサイズを確認します。

VD LIST :
=======

--------------------------------------------------------------
DG/VD TYPE  State Access Consist Cache Cac sCC      Size Name 
--------------------------------------------------------------
0/0   RAID5 Optl  RW     Yes     RWBD  -   OFF 10.914 TB data 
--------------------------------------------------------------
                                               ^^^^^^

LVMを使用してディスクを管理しています。 pvscanは、ディスクサイズが変更されていないことを示しています。

PV /dev/sdb   VG data   lvm2 [8,19 TiB / 526,00 GiB free]
                              ^^^^^^^^

再起動する時間です(少なくとも、Linuxにディスクを再スキャンさせる方法が見つかりませんでした)。

少なくとも、lsblkは正しいディスクサイズを表示します。

sdb              8:16   0  10,9T  0 disk
                           ^^^^^

LVMはまだそれを見ることができません(pvscan):

PV /dev/sdb   VG data   lvm2 [8,19 TiB / 526,00 GiB free]

pvdisplayに詳細が表示されます:

  --- Physical volume ---
  PV Name               /dev/sdb
  VG Name               data
  PV Size               8,19 TiB / not usable 3,00 MiB
  Allocatable           yes 
  PE Size               4,00 MiB
  Total PE              2145791
  Free PE               134655
  Allocated PE          2011136
  PV UUID               vM1WQP-CZXu-FrWJ-kRti-hMa2-I1rh-Mga6Xg

次の操作を実行する前にテストできます:pvresize --test -v /dev/sdb

  TEST MODE: Metadata will NOT be updated and volumes will not be (de)activated.
    Using physical volume(s) on command line.
    Test mode: Skipping archiving of volume group.
    Resizing volume "/dev/sdb" to 23437770752 sectors.
    Resizing physical volume /dev/sdb from 0 to 2861055 extents.
    Updating physical volume "/dev/sdb"
    Test mode: Skipping backup of volume group.
  Physical volume "/dev/sdb" changed
  1 physical volume(s) resized / 0 physical volume(s) not resized
    Test mode: Wiping internal cache
    Wiping internal VG cache

2861055エクステントa 4 MiB10.91 TiBに変換されます(2861055 * 4096/1024/1024/1024)。

論理ボリュームのサイズを変更します:pvresize -v /dev/sdb

最後に、LVMは新しい容量を認識します。

# pvdisplay 
  --- Physical volume ---
  PV Name               /dev/sdb
  VG Name               data
  PV Size               10,91 TiB / not usable 3,00 MiB
  Allocatable           yes 
  PE Size               4,00 MiB
  Total PE              2861055
  Free PE               849919
  Allocated PE          2011136
  PV UUID               vM1WQP-CZXu-FrWJ-kRti-hMa2-I1rh-Mga6Xg

これで、ボリュームグループのファイルシステムを拡張し続けることができます。

6
Aaron Digulla