1. 程式人生 > >在raid1上裝centos7和建立raid5及卷組

在raid1上裝centos7和建立raid5及卷組

raid1上部署centos7.2  

硬體配置

硬碟:共8個  2個做raid1   6個做倆組raid5

記憶體:4G

Raid1部署centos7.2  Linux檔案系統

Raid5 部署卷組

虛擬機器配置

1.開機,進入安裝介面,回車

2.選擇中文,簡體中文

3.配置日期和時間

4.軟體選擇,選擇桌面版

5.選擇安裝位置

6.分割槽,點選+,輸入分割槽和大小

7.修改裝置型別為raid,級別raid1,檔案系統EXT4,點修改,選中做raid的硬碟,如圖所示

8./boot分割槽完畢

9.其他分割槽,請參照/boot

10.接受更改

11.開始安裝

12.設定root密碼

13.輸入密碼

14.進度條走完,重啟

15.登陸,開啟終端,配置靜態IP

16.重啟網絡卡

建立raid5

1.格式化6塊硬碟

[[email protected] ~]# fdisk /dev/sdc

歡迎使用 fdisk (util-linux 2.23.2)

更改將停留在記憶體中,直到您決定將更改寫入磁碟。

使用寫入命令前請三思。

命令(輸入 m 獲取幫助)n

Partition type:

   p   primary (0 primary, 0 extended, 4 free)

   e   extended

Select (default p): p

分割槽號 (1-4,預設 1)1

起始 扇區 (2048-41943039,預設為 2048)

將使用預設值 2048

Last 扇區, +扇區 or +size{K,M,G} (2048-41943039,預設為 41943039)

將使用預設值 41943039

分割槽 1 已設定為 Linux 型別,大小設為 20 GiB

命令(輸入 m 獲取幫助)t

已選擇分割槽 1

Hex 程式碼(輸入 L 列出所有程式碼)fd

已將分割槽Linux”的型別更改為“Linux raid autodetect

命令(輸入 m 獲取幫助)w

The partition table has been altered!

Calling ioctl() to re-read partition table.

正在同步磁碟。

其他5塊同上

2.建立raid5

[[email protected] ~]# mdadm --create --auto=yes /dev/md0 --level=5 --raid-devices=3  /dev/sd{c,d,e}1

mdadm: Defaulting to version 1.2 metadata

mdadm: array /dev/md0 started.

[[email protected] ~]# mdadm --create --auto=yes /dev/md1 --level=5 --raid-devices=3  /dev/sd{f,g,h}1

mdadm: Defaulting to version 1.2 metadata

mdadm: array /dev/md1 started.

建立raid5/dev/md0陣列裝置名,level=5陣列模式raid5raid-device=3

raid3塊硬碟

建立raid5/dev/md1陣列裝置名,level=5陣列模式raid5raid-device=3

raid3塊硬碟

3.檢視資料同步情況

[[email protected] ~]#  cat /proc/mdstat

Personalities : [raid1] [raid6] [raid5] [raid4]

md1 : active raid5 sdh1[3] sdg1[1] sdf1[0]

      41908224 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]

md0 : active raid5 sde1[3] sdd1[1] sdc1[0]

      41908224 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]

4.配置檔案

[[email protected] ~]# mdadm --detail /dev/md0 | grep UUID

           UUID : 4593d1f2:04dc4be2:3952e82b:497cf1ec

[[email protected] ~]# mdadm --detail /dev/md1 | grep UUID

           UUID : 93c13cb9:c03c0e1e:4a47849e:c70be467

[[email protected] ~]# vi /etc/mdadm.conf

device /dev/sdc1 /dev/sdd1 /dev/sde1

ARRAY /dev/md0 level=raid5 num-devices=3 UUID=4593d1f2:04dc4be2:3952e82b:497cf1ec

device /dev/sdf1 /dev/sdg1 /dev/sdh1

ARRAY /dev/md1 level=raid5 num-devices=3 UUID=93c13cb9:c03c0e1e:4a47849e:c70be467

5.格式化

[[email protected] ~]# mkfs.ext4 /dev/md0

[[email protected] ~]# mkfs.ext4 /dev/md1

6.檢查

[[email protected] ~]# mdadm -D /dev/md0

/dev/md0:

        Version : 1.2

  Creation Time : Mon Aug  7 09:22:22 2017

     Raid Level : raid5

     Array Size : 41908224 (39.97 GiB 42.91 GB)

  Used Dev Size : 20954112 (19.98 GiB 21.46 GB)

   Raid Devices : 3

  Total Devices : 3

    Persistence : Superblock is persistent

    Update Time : Mon Aug  7 10:14:00 2017

          State : clean

 Active Devices : 3

Working Devices : 3

 Failed Devices : 0

  Spare Devices : 0

         Layout : left-symmetric

     Chunk Size : 512K

           Name : localhost.localdomain:0  (local to host localhost.localdomain)

           UUID : 4593d1f2:04dc4be2:3952e82b:497cf1ec

         Events : 18

    Number   Major   Minor   RaidDevice State

       0       8       33        0      active sync   /dev/sdc1

       1       8       49        1      active sync   /dev/sdd1

       3       8       65        2      active sync   /dev/sde1

7.啟動與停止

啟動陣列

[[email protected] ~]#  mdadm -As /dev/md0

停止陣列

[[email protected] ~]#  mdadm -S /dev/md0

停用

umount /dev/md0

vim /etc/fstab

mdadm --stop /dev/md0

rm -rf /etc/mdadm.conf

Mdadm命令 --detail 檢視資訊

    --create 建立

    --auto=yes     自動生成裝置檔案  /dev/md0

    --raid-devices=NUM         raid成員數量

    --spare-devices=NUM         備用磁碟數量

    --level=[0,1,5,10]         raid的級別

    --stop     停用

    --assemble     啟用

建立卷組

1.建立PV

[[email protected] ~]# pvcreate /dev/md{0,1}

  Physical volume "/dev/md0" successfully created

  Physical volume "/dev/md1" successfully created

2.建立VG

[[email protected] ~]# vgcreate lvm1 /dev/md{0,1}

  Volume group "lvm1" successfully created

3.檢視VG

[[email protected] ~]# vgdisplay  

  --- Volume group ---

  VG Name               lvm1

  System ID             

  Format                lvm2

  Metadata Areas        2

  Metadata Sequence No  1

  VG Access             read/write

  VG Status             resizable

  MAX LV                0

  Cur LV                0

  Open LV               0

  Max PV                0

  Cur PV                2

  Act PV                2

  VG Size               79.93 GiB

  PE Size               4.00 MiB

  Total PE              20462

  Alloc PE / Size       0 / 0   

  Free  PE / Size       20462 / 79.93 GiB

  VG UUID               CAKd70-FLvk-PnTf-ic8u-ov8J-FU21-UXCsK2

4.建立LV,名為web1web2,大小為5G

[[email protected] ~]# lvcreate -L 5G -n web1 lvm1   

  Logical volume "web1" created.

[[email protected] ~]# lvcreate -L 5G -n web2 lvm1   

  Logical volume "web2" created.

5.格式化web1和web2

[[email protected] ~]# mke2fs -j /dev/lvm1/web1  

[[email protected] ~]#  mke2fs -j /dev/lvm1/web2

6.掛載web1 web2

[[email protected] ~]# mkdir /web1 /web2

[[email protected] ~]# mount /dev/lvm1/web1 /web1

[[email protected] ~]# mount /dev/lvm1/web2 /web2

7.編輯/etc/fstab,讓系統啟動時自動掛載

[[email protected] ~]# vi /etc/fstab

/dev/lvm1/web1          /web1                   ext4    defaults        0 0

/dev/lvm1/web2          /web2                   ext4    defaults        0 0

模擬故障

1.標記/dev/sdc1為故障盤

[[email protected] ~]#  mdadm /dev/md0 -f /dev/sdc1

mdadm: set /dev/sdc1 faulty in /dev/md0

2.檢視

[[email protected] ~]#  more /proc/mdstat

Personalities : [raid1] [raid6] [raid5] [raid4]

md1 : active raid5 sdh1[3] sdg1[1] sdf1[0]

      41908224 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]

md0 : active raid5 sde1[3] sdd1[1] sdc1[0](F)[F]表示為故障盤

      41908224 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [_UU]

3.移除故障盤

[[email protected] ~]# mdadm /dev/md0 -r /dev/sdc1

mdadm: hot removed /dev/sdc1 from /dev/md0

4.檢視陣列情況

[[email protected] ~]#  more /proc/mdstat

Personalities : [raid1] [raid6] [raid5] [raid4]

md1 : active raid5 sdh1[3] sdg1[1] sdf1[0]

      41908224 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]

md0 : active raid5 sde1[3] sdd1[1]

      41908224 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [_UU]

5.檢視PV情況,發現容量沒減少

[[email protected] ~]# pvdisplay /dev/md0

  --- Physical volume ---

  PV Name               /dev/md0

  VG Name               lvm1

  PV Size               39.96 GiB / not usable 2.00 MiB

  Allocatable           yes

  PE Size               4.00 MiB

  Total PE              10228

  Free PE               9978

  Allocated PE          250

  PV UUID               75bPOD-Sm3R-saMu-0muF-fUPa-8PdB-WIQAVB

6.先格式化,再增加硬碟

[[email protected] ~]#  mdadm /dev/md0 -a /dev/sdc1

mdadm: added /dev/sdc1

7.開始同步資料

[[email protected] ~]# more /proc/mdstat

增加LVM容量

1.增加web1 1G

[[email protected] ~]#  lvextend -L +1G /dev/lvm1/web1

2.重新整理

[[email protected] ~]# resize2fs /dev/lvm1/web1

3.檢視

[[email protected] ~]# df -h

檔案系統               容量  已用  可用 已用% 掛載點

/dev/md127             5.7G  3.5G  1.9G   65% /

devtmpfs               1.9G     0  1.9G    0% /dev

tmpfs                  1.9G   88K  1.9G    1% /dev/shm

tmpfs                  1.9G  9.1M  1.9G    1% /run

tmpfs                  1.9G     0  1.9G    0% /sys/fs/cgroup

/dev/md124             9.7G   41M  9.2G    1% /home

/dev/md125             2.0G  117M  1.7G    7% /var

/dev/md126             191M  131M   47M   74% /boot

tmpfs                  378M   16K  378M    1% /run/user/0

/dev/sr0               4.1G  4.1G     0  100% /run/media/root/CentOS 7 x86_64

/dev/mapper/lvm1-web1  5.8G   13M  5.5G    1% /web1

/dev/mapper/lvm1-web2  4.8G   11M  4.6G    1% /web2

卷組常用命令

PV物理卷

規劃磁碟,改id=8e

pvcreate 初始化物理卷,pvcreate /dev/sd{b,c,d,e,f}1

pvscan     掃描

pvdisplay     檢視,pvdisplay檢視所有,pvdisplay /dev/sdb1檢視指定裝置

pvremove 刪除

VG卷組

vgcreate -s建立 PE大小(M,G,T)

vgscan          掃描

vgdisplay       檢視

vgreduce 縮小

vgextend 放大

vgchange 改變狀態

vgremove 刪除

LV邏輯卷

lvcreate -L 容量(M,G,T)  -l PE個數  -n lv名稱

lvscan          掃描

lvdisplay       檢視

lvextend        放大

lvreduce        縮小

lvremove        刪除

lvresize 重定義大小