Software RAID--磁盘阵列有硬件磁盘阵列和软件磁盘阵列,硬件磁盘阵列使用磁盘阵列卡来达成效果,使多个磁盘组成一个大的磁盘,对操作系统而言,只能看见这个大的磁盘却看不见那些小的磁盘,但是磁盘阵列卡造价昂贵,普通用户在学习过程中无法实现硬件磁盘阵列;因此出现了用软件来实现磁盘阵列的功能,操作系统将多个小的磁盘组成一个大的虚拟磁盘,同时操作系统可以看得见每个小的磁盘.
目录
Software RAID的创建(mdadm --create | -C)
Software RAID仿真错误(mdadm --manage)
如何开机挂载RAID
如何彻底关闭RAID
共享热备盘的实现
案例
******************一 Software RAID的创建(mdadm --create|-C)********************
~]# mdadm -C -a yes /dev/md0 -n 2 -l 0 /dev/sdc /dev/sdd ~]# mdadm -C -a yes /dev/md1 -n 2 -l 1 /dev/sde /dev/sdf ~]# mdadm -C -a yes /dev/md1 -n 2 -l 1 -x 1 /dev/sd{e,f,g}
-C 创建raid
-a yes 自动创建后面接着的raid设备/dev/mdX
-n (--raid-devices=) num 阵列中磁盘的数量
-x (--spare-devices=) num 热备盘的数量
-l (--level=) [015] 设定磁盘阵列的等级,通常为raid 0,raid 1,raid 5
最后必须列出创建磁盘阵列用到的各个磁盘
~]# mdadm -D /dev/md0
-D (--detail) 后面接设定的磁盘阵列装置名,查看raid信息
另外 cat /proc/mdstat 可以查看全部的raid信息
******************二 Software RAID仿真错误(mdadm --manage)******************
mdadm (--manage) /dev/md1 -f /dev/sdf 将md1中的sdf设置为坏的设备,--manage加不加无所谓,下同
mdadm (--manage) /dev/md1 -r /dev/sdf 将md1中的sdf从raid成员中删除
mdadm (--manage) /dev/md1 -a /dev/sdf 向md1中增加新成员sdf
mdadm -G /dev/md1 -n 3 -a /dev/sdh 将raid1 md1的成员数量改为3,并加入新的成员(不是加为热备盘)
可以发现-a的作用是:
会根据一开始创建RAID设定的raid-devices=num的值变化;
如果RAID中原本的num个磁盘都完好,-a只是增加热备盘
如果RAID中能使用的磁盘数不足num,-a会补充组成raid-device
****************************三 如何开机挂载RAID***************************
这和之前磁盘分区的挂载完全一样,把RAID当做一个磁盘处理就是了
1 修改raid的配置文件/etc/mdadm.conf
mdadm -D -s > /etc/mdadm.conf
2 修改配置文件/etc/fstab(相信大家很熟悉了)
/dev/md0 /mnt/raid ext4 defaults 1 2
将上面的一行加入该配置文件
3 挂载mount -a
重启之后查看
****************************四 如何彻底关闭RAID****************************
mdadm -S(--stop) /dev/md0 停止raid
mdadm -A /dev/md0 /dev/sdc /dev/sdd /dev/sde 开启raid
mdadm -D -s
mdadm -D -s > /etc/mdadm.conf 将raid信息保存至该文件
mdadm -A -s 自动激活/etc/mdadm.conf中的所有raid设备
-------------------------------------------------------------------------------
彻底关闭raid并且之后也不会再激活的方法:
mdadm -S /dev/mdX
将/etc/mdadm.conf中的内容去掉
mdadm --zero-superblock /dev/sdM(RAID device) 关键
****************************五 共享热备盘的实现****************************
# 创建raid 1和raid 5,其中只有raid 5有热备盘 ~]# mdadm -C --auto=yes /dev/md0 -n 2 -l 1 /dev/sd{c,d} ~]# mdadm -C --auto=yes /dev/md1 -n 3 -x 1 -l 5 /dev/sd{e..h}
实现/dev/md0 和/dev/md1 之间仅有的一个热备盘共同使用
①mdadm -D -s > /etc/mdadm.conf
②在需要共享的多组raid信息最后分别都写上spare-group=任意名
③然后再加一新行,顶头写MAILADDR .(一定要有空格)
④service mdmonitor start
⑤测试
查看之前的两个RAID的状态
# 损坏/dev/md0中的磁盘/dev/sdc(注意/dev/md0中并没有热备盘) ~]# mdadm /dev/md0 -f /dev/sdc mdadm: set /dev/sdc faulty in /dev/md0
结果/dev/md1下的热备盘/dev/sdh自动替换/dev/md0下的损坏的/dev/sdc
************************************** 六 案例 **************************************
1:创建一个可用空间为1G的RAID1设备,文件系统为ext4,开机可自动挂载至/backup目录
新加入两个1G大小的硬盘 echo '- - -' > /sys/class/scsi_host/host0/scan lsblk 或 cat /proc/partitions 或 ll /dev/sd* mdadm --create --auto=yes /dev/md0 --level 1 -n 2 /dev/sd{c,d} mdadm -D /dev/md0 mkfs.ext4 /dev/md0 blkid /dev/md0 mkdir /backup mount /dev/md0/backup
2:创建由三块硬盘组成的可用空间为2G的RAID5设备,要求其chunk大小为256k,文件系统为ext4,开机可自动挂载至/mydata目录
新创建三个2G大小的硬盘 echo '- - -' > /sys/class/scsi_host/host0/scan mdadm --create --auto=yes /dev/md1 --level=5 --chunk=256K -n 3 /dev/sd{e,f,g} mkfs.ext4 /dev/md1 mkdir /mydata mount /dev/md1 /mydata