实验想法
1.我建立的5块硬盘/dev/sdb1  /dev/sdc1  /dev/sdd1  /dev/sdd1  /dev/sdf1
2.用3块硬盘做raid5阵列,其余2块做冗余spare盘
3.打破raid5关系,重新建立raid阵列用4块硬盘,其余1块做冗余spare
4.模拟一块硬盘的损坏,冗余盘允许顶替并作数据恢复机制
5.监控raid5的运行状况并转发给root
 
实验环境
1.操作系统RedHat Linux Enterprise 5.5
2.VMWare WorkStation 7.0
3.mdadm管理工具(linux自带)
 
 
实验步骤
1.查看硬盘状况
 
 
 
 
2.硬盘分区并转化成Linux raid auto
 
3.创建raid5的设备文件
 
4.创建raid5
 
5.看看简易的状态和信息
 
 
6.看看复杂的状态和信息
 
 
7.创建配置文件并查看了一下,如果没有配置文件在你停掉raid5后将无法再次启动
 
 
8.我现在把配置文件删除或重命名,只要/dev/md5找不到配置文件就可以了,我们看看能不能在启动
 
 
9.现在我把配置文件有正确的名字和路径,再次启动raid5
 
10.现在我们格式化raid5设备
 
 
11.挂载raid5设备
 
12.查看raid的挂载情况
 
 
13.我现在想在添加一块冗余盘
这是我原来的raid信息看到只有sde1是冗余盘
 
我添加新盘/dev/sdf1到/dev/md5的raid信息,sdf1也变成冗余了
 
 
14.现在我有5块硬盘了分别是/dev/sdb1---/dev/sdc1----/dev/sdd1---/dev/sde1---/dev/sdf1
我想用4块硬盘做raid5然后1块硬盘做冗余,因为我先前做过一次raid5,所以我再次创建时候会提示以前的硬盘已经有文件系统并属于其他raid了,我强制重建了,最后我看了一下raid5的状态没有问题
 
 
 
15.我在新的已挂载的raid5设备上写一些空数据,
 
 
16.我打算创建个后台任务监控raid5的状况
 
 
17.然后我让raid5设备中的/dev/sde1损坏
 
那么此时冗余盘应该立刻接替损坏的磁盘并开始建立数据恢复机制,/dev/sdf1代替了/dev/sde1了
 
 
18.我们来看看监控信息有没有发给管理员邮箱
 
至此我们的raid演示结束了,请虾哥虾姐有必要的补充就留言给我吧,不管是已实现的实验步骤还是未实现的需求都可以,我会竭尽全力补充和完善
 
我现在是用4块硬盘做raid5,突然想改成3块硬盘做了,看资料说
mdadm -A  --run /dev/sdb1  /dev/sdc1   /dev/sdd1  不知道是否可以,我做实验了居然最后1块盘冗余盘/dev/sdf1代替了第1块硬盘/dev/sdb1,实在搞不懂了,请高手赐教