Tips

LinuxServer RAIDについて その9

スペアディスクつけてRAIDを作成する方法

Fault発生時にオートでスペアディスクを用意しておくとRAIDアレイの再構成を勝手に行ってくれる

RAIDアレイ作成時にスペアも追加する場合は以下のようにする。

[root@gestos01 ~]# mdadm --create /dev/md0 --level 1 --raid-devices 2 --spare-devices 1 /dev/xvd{b,c,d}1
mdadm: array /dev/md0 started.

追加されているディスクを確認してみる
cat /proc/mdstat をみると徐々に追加されている様子がわかる

[root@gestos01 ~]# cat /proc/mdstat
Personalities : [raid1]
md0 : active raid1 xvdd1[2](S) xvdc1[1] xvdb1[0]
      1044096 blocks [2/2] [UU]
      [==========>..........]  resync = 54.8% (572616/1044096) finish=0.3min speed=26028K/sec

unused devices: <none>

[root@gestos01 ~]# cat /proc/mdstat
Personalities : [raid1]
md0 : active raid1 xvdd1[2](S) xvdc1[1] xvdb1[0]
      1044096 blocks [2/2] [UU]
      [============>........]  resync = 61.2% (640904/1044096) finish=0.2min speed=26704K/sec

unused devices: <none>
[root@gestos01 ~]# cat /proc/mdstat
Personalities : [raid1]
md0 : active raid1 xvdd1[2](S) xvdc1[1] xvdb1[0]
      1044096 blocks [2/2] [UU]

unused devices: <none>

ファイルシステムを作成する

[root@gestos01 ~]# mkfs /dev/md0
mke2fs 1.39 (29-May-2006)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
130560 inodes, 261024 blocks
13051 blocks (5.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=268435456
8 block groups
32768 blocks per group, 32768 fragments per group
16320 inodes per group
Superblock backups stored on blocks:
        32768, 98304, 163840, 229376

Writing inode tables: done
Writing superblocks and filesystem accounting information: done

This filesystem will be automatically checked every 32 mounts or
180 days, whichever comes first.  Use tune2fs -c or -i to override.

マウントをして使用できることを確認する

[root@gestos01 ~]# mount /dev/md0 /mnt
[root@gestos01 ~]# ls
Desktop  anaconda-ks.cfg  install.log  install.log.syslog  mbox  test.sh
[root@gestos01 ~]#
[root@gestos01 ~]# ls /mnt
lost+found
[root@gestos01 ~]# touch /mnt/aaa
[root@gestos01 ~]#
[root@gestos01 ~]# ls /mnt
aaa  lost+found

ディスクに不良マークをつけてみる

[root@gestos01 ~]# mdadm /dev/md0 -f /dev/xvdb1
mdadm: set /dev/xvdb1 faulty in /dev/md0

するとRAIDの再構成がはじまった。

[root@gestos01 ~]# cat /proc/mdstat
Personalities : [raid1]
md0 : active raid1 xvdc1[2] xvdd1[1] xvdb1[3](F)
      1044096 blocks [2/1] [_U]
      [=>...................]  recovery =  5.3% (56936/1044096) finish=1.1min speed=14234K/sec

unused devices: <none>
[root@gestos01 ~]#
[root@gestos01 ~]# cat /proc/mdstat
Personalities : [raid1]
md0 : active raid1 xvdc1[2] xvdd1[1] xvdb1[3](F)
      1044096 blocks [2/1] [_U]
      [===>.................]  recovery = 16.9% (177276/1044096) finish=1.1min speed=12662K/sec

unused devices: <none>

再構成中も問題なくディスクを使用できる

[root@gestos01 ~]# touch /mnt/bbb

[root@gestos01 ~]# ls /mnt
aaa  bbb  lost+found

[root@gestos01 ~]# cat /proc/mdstat
Personalities : [raid1]
md0 : active raid1 xvdc1[2] xvdd1[1] xvdb1[3](F)
      1044096 blocks [2/1] [_U]
      [=================>...]  recovery = 86.9% (908556/1044096) finish=0.2min speed=10587K/sec

unused devices: <none>

[root@gestos01 ~]# cat /proc/mdstat
Personalities : [raid1]
md0 : active raid1 xvdc1[0] xvdd1[1] xvdb1[2](F)
      1044096 blocks [2/2] [UU]

unused devices: <none>

不良マークになったディスクを削除する

[root@gestos01 ~]# mdadm /dev/md0 -r /dev/xvdb1
mdadm: hot removed /dev/xvdb1
[root@gestos01 ~]#
[root@gestos01 ~]# cat /proc/mdstat
Personalities : [raid1]
md0 : active raid1 xvdc1[0] xvdd1[1]
      1044096 blocks [2/2] [UU]

unused devices: <none>

以下のコマンドでまた追加するとそのディスクはホットスペアになった。

[root@gestos01 ~]# mdadm /dev/md0 -a /dev/xvdb1
mdadm: added /dev/xvdb1
[root@gestos01 ~]#
[root@gestos01 ~]# cat /proc/mdstat
Personalities : [raid1]
md0 : active raid1 xvdb1[2](S) xvdc1[0] xvdd1[1]
      1044096 blocks [2/2] [UU]

unused devices: <none>


今回はスペアディスクを追加したRAIDを試してみた。
次回は容量の異なるパーティション上にRAIDができるか確認してみる

Linux認定資格 LPICを取るなら・・

Linux資格 「LPIC Lv1」徹底解説 連載目次

Recent News

Recent Tips

Tag Search