在raid1上裝centos7和建立raid5及卷組
raid1上部署centos7.2
硬體配置
硬碟:共8個 2個做raid1 6個做倆組raid5
記憶體:4G
Raid1部署centos7.2 及Linux檔案系統
Raid5 部署卷組
虛擬機器配置
1.開機,進入安裝介面,回車
2.選擇中文,簡體中文
3.配置日期和時間
4.軟體選擇,選擇桌面版
5.選擇安裝位置
6.分割槽,點選+,輸入分割槽和大小
7.修改裝置型別為raid,級別raid1,檔案系統EXT4,點修改,選中做raid的硬碟,如圖所示
8./boot分割槽完畢
9.其他分割槽,請參照/boot
10.接受更改
11.開始安裝
12.設定root密碼
13.輸入密碼
14.進度條走完,重啟
15.登陸,開啟終端,配置靜態IP
16.重啟網絡卡
建立raid5
1.格式化6塊硬碟
[[email protected] ~]# fdisk /dev/sdc
歡迎使用 fdisk (util-linux 2.23.2)。
更改將停留在記憶體中,直到您決定將更改寫入磁碟。
使用寫入命令前請三思。
命令(輸入 m 獲取幫助):n
Partition type:
p primary (0 primary, 0 extended, 4 free)
e extended
Select (default p): p
分割槽號 (1-4,預設 1):1
起始 扇區 (2048-41943039,預設為 2048):
將使用預設值 2048
Last 扇區, +扇區 or +size{K,M,G} (2048-41943039,預設為 41943039):
將使用預設值 41943039
分割槽 1 已設定為 Linux 型別,大小設為 20 GiB
命令(輸入 m 獲取幫助):t
已選擇分割槽 1
Hex 程式碼(輸入 L 列出所有程式碼):fd
已將分割槽“Linux”的型別更改為“Linux raid autodetect”
命令(輸入 m 獲取幫助):w
The partition table has been altered!
Calling ioctl() to re-read partition table.
正在同步磁碟。
其他5塊同上
2.建立raid5
[[email protected] ~]# mdadm --create --auto=yes /dev/md0 --level=5 --raid-devices=3 /dev/sd{c,d,e}1
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.
[[email protected] ~]# mdadm --create --auto=yes /dev/md1 --level=5 --raid-devices=3 /dev/sd{f,g,h}1
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md1 started.
建立raid5,/dev/md0陣列裝置名,level=5陣列模式raid5,raid-device=3
raid有3塊硬碟
建立raid5,/dev/md1陣列裝置名,level=5陣列模式raid5,raid-device=3
raid有3塊硬碟
3.檢視資料同步情況
[[email protected] ~]# cat /proc/mdstat
Personalities : [raid1] [raid6] [raid5] [raid4]
md1 : active raid5 sdh1[3] sdg1[1] sdf1[0]
41908224 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]
md0 : active raid5 sde1[3] sdd1[1] sdc1[0]
41908224 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]
4.配置檔案
[[email protected] ~]# mdadm --detail /dev/md0 | grep UUID
UUID : 4593d1f2:04dc4be2:3952e82b:497cf1ec
[[email protected] ~]# mdadm --detail /dev/md1 | grep UUID
UUID : 93c13cb9:c03c0e1e:4a47849e:c70be467
[[email protected] ~]# vi /etc/mdadm.conf
device /dev/sdc1 /dev/sdd1 /dev/sde1
ARRAY /dev/md0 level=raid5 num-devices=3 UUID=4593d1f2:04dc4be2:3952e82b:497cf1ec
device /dev/sdf1 /dev/sdg1 /dev/sdh1
ARRAY /dev/md1 level=raid5 num-devices=3 UUID=93c13cb9:c03c0e1e:4a47849e:c70be467
5.格式化
[[email protected] ~]# mkfs.ext4 /dev/md0
[[email protected] ~]# mkfs.ext4 /dev/md1
6.檢查
[[email protected] ~]# mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Mon Aug 7 09:22:22 2017
Raid Level : raid5
Array Size : 41908224 (39.97 GiB 42.91 GB)
Used Dev Size : 20954112 (19.98 GiB 21.46 GB)
Raid Devices : 3
Total Devices : 3
Persistence : Superblock is persistent
Update Time : Mon Aug 7 10:14:00 2017
State : clean
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 512K
Name : localhost.localdomain:0 (local to host localhost.localdomain)
UUID : 4593d1f2:04dc4be2:3952e82b:497cf1ec
Events : 18
Number Major Minor RaidDevice State
0 8 33 0 active sync /dev/sdc1
1 8 49 1 active sync /dev/sdd1
3 8 65 2 active sync /dev/sde1
7.啟動與停止
啟動陣列
[[email protected] ~]# mdadm -As /dev/md0
停止陣列
[[email protected] ~]# mdadm -S /dev/md0
停用
umount /dev/md0
vim /etc/fstab
mdadm --stop /dev/md0
rm -rf /etc/mdadm.conf
Mdadm命令 --detail 檢視資訊
--create 建立
--auto=yes 自動生成裝置檔案 /dev/md0
--raid-devices=NUM raid成員數量
--spare-devices=NUM 備用磁碟數量
--level=[0,1,5,10] raid的級別
--stop 停用
--assemble 啟用
建立卷組
1.建立PV
[[email protected] ~]# pvcreate /dev/md{0,1}
Physical volume "/dev/md0" successfully created
Physical volume "/dev/md1" successfully created
2.建立VG
[[email protected] ~]# vgcreate lvm1 /dev/md{0,1}
Volume group "lvm1" successfully created
3.檢視VG
[[email protected] ~]# vgdisplay
--- Volume group ---
VG Name lvm1
System ID
Format lvm2
Metadata Areas 2
Metadata Sequence No 1
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 0
Open LV 0
Max PV 0
Cur PV 2
Act PV 2
VG Size 79.93 GiB
PE Size 4.00 MiB
Total PE 20462
Alloc PE / Size 0 / 0
Free PE / Size 20462 / 79.93 GiB
VG UUID CAKd70-FLvk-PnTf-ic8u-ov8J-FU21-UXCsK2
4.建立LV,名為web1和web2,大小為5G
[[email protected] ~]# lvcreate -L 5G -n web1 lvm1
Logical volume "web1" created.
[[email protected] ~]# lvcreate -L 5G -n web2 lvm1
Logical volume "web2" created.
5.格式化web1和web2
[[email protected] ~]# mke2fs -j /dev/lvm1/web1
[[email protected] ~]# mke2fs -j /dev/lvm1/web2
6.掛載web1 web2
[[email protected] ~]# mkdir /web1 /web2
[[email protected] ~]# mount /dev/lvm1/web1 /web1
[[email protected] ~]# mount /dev/lvm1/web2 /web2
7.編輯/etc/fstab,讓系統啟動時自動掛載
[[email protected] ~]# vi /etc/fstab
/dev/lvm1/web1 /web1 ext4 defaults 0 0
/dev/lvm1/web2 /web2 ext4 defaults 0 0
模擬故障
1.標記/dev/sdc1為故障盤
[[email protected] ~]# mdadm /dev/md0 -f /dev/sdc1
mdadm: set /dev/sdc1 faulty in /dev/md0
2.檢視
[[email protected] ~]# more /proc/mdstat
Personalities : [raid1] [raid6] [raid5] [raid4]
md1 : active raid5 sdh1[3] sdg1[1] sdf1[0]
41908224 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]
md0 : active raid5 sde1[3] sdd1[1] sdc1[0](F)[F]表示為故障盤
41908224 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [_UU]
3.移除故障盤
[[email protected] ~]# mdadm /dev/md0 -r /dev/sdc1
mdadm: hot removed /dev/sdc1 from /dev/md0
4.檢視陣列情況
[[email protected] ~]# more /proc/mdstat
Personalities : [raid1] [raid6] [raid5] [raid4]
md1 : active raid5 sdh1[3] sdg1[1] sdf1[0]
41908224 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]
md0 : active raid5 sde1[3] sdd1[1]
41908224 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [_UU]
5.檢視PV情況,發現容量沒減少
[[email protected] ~]# pvdisplay /dev/md0
--- Physical volume ---
PV Name /dev/md0
VG Name lvm1
PV Size 39.96 GiB / not usable 2.00 MiB
Allocatable yes
PE Size 4.00 MiB
Total PE 10228
Free PE 9978
Allocated PE 250
PV UUID 75bPOD-Sm3R-saMu-0muF-fUPa-8PdB-WIQAVB
6.先格式化,再增加硬碟
[[email protected] ~]# mdadm /dev/md0 -a /dev/sdc1
mdadm: added /dev/sdc1
7.開始同步資料
[[email protected] ~]# more /proc/mdstat
增加LVM容量
1.增加web1 1G
[[email protected] ~]# lvextend -L +1G /dev/lvm1/web1
2.重新整理
[[email protected] ~]# resize2fs /dev/lvm1/web1
3.檢視
[[email protected] ~]# df -h
檔案系統 容量 已用 可用 已用% 掛載點
/dev/md127 5.7G 3.5G 1.9G 65% /
devtmpfs 1.9G 0 1.9G 0% /dev
tmpfs 1.9G 88K 1.9G 1% /dev/shm
tmpfs 1.9G 9.1M 1.9G 1% /run
tmpfs 1.9G 0 1.9G 0% /sys/fs/cgroup
/dev/md124 9.7G 41M 9.2G 1% /home
/dev/md125 2.0G 117M 1.7G 7% /var
/dev/md126 191M 131M 47M 74% /boot
tmpfs 378M 16K 378M 1% /run/user/0
/dev/sr0 4.1G 4.1G 0 100% /run/media/root/CentOS 7 x86_64
/dev/mapper/lvm1-web1 5.8G 13M 5.5G 1% /web1
/dev/mapper/lvm1-web2 4.8G 11M 4.6G 1% /web2
卷組常用命令
PV物理卷
規劃磁碟,改id=8e
pvcreate 初始化物理卷,pvcreate /dev/sd{b,c,d,e,f}1
pvscan 掃描
pvdisplay 檢視,pvdisplay檢視所有,pvdisplay /dev/sdb1檢視指定裝置
pvremove 刪除
VG卷組
vgcreate -s建立 PE大小(M,G,T)
vgscan 掃描
vgdisplay 檢視
vgreduce 縮小
vgextend 放大
vgchange 改變狀態
vgremove 刪除
LV邏輯卷
lvcreate -L 容量(M,G,T) -l PE個數 -n lv名稱
lvscan 掃描
lvdisplay 檢視
lvextend 放大
lvreduce 縮小
lvremove 刪除
lvresize 重定義大小