1.服务器硬件类型以及规格
1.1
例:2p 4c 32G 规格 2p:两个物理核 2c:两个cpu上有两个核心 服务器上一共有2*2=4核cpu 32G内存空间
1.2 服务器类型
服务器 | 国内 | 国外 |
---|---|---|
1 | 浪潮 | IBE |
2 | 华为 | 惠普 |
3 | 中兴 | 爱立信 |
华为的服务器型号有:ATAE 2.0、RH228X、E9000
2、RAID磁盘阵列介绍
- 是Redundant Array of Independent Disks的缩写,中文简称为独立冗余磁盘阵列
把多块独立的物理硬盘按不同的方式组合起来形成一个硬盘组(逻辑硬盘),从而提供比单个硬盘更高的存储性能和提供数据备份技术
组成磁盘阵列的不同方式称为RAID级别(RAID Levels)
常用的RAID级别 RAID0,RAID1,RAID5, RAID6,RAID1+0等
3、RAID 0 磁盘阵列介绍
- RAID 0 (条带化存储) RAID 0 连续以位或字节为单位分割数据,并行读/写于多个磁盘上,因此具有很高的数据传输率,但它没有数据冗余 RAID 0 只是单纯地提高性能,并没有为数据的可靠性提供保证,而且其中的一个磁盘失效将影响到所有数据 RAID 0 不能应用于数据安全性要求高的场合 RAID 0 N块硬盘并行组合成一个新的逻辑盘
4、RAID 1 磁盘阵列介绍
- RAID 1 (镜像存储)
通过磁盘数据镜像实现数据冗余,在成对的独立磁盘上产生互为备份的数据 当原始数据繁忙时,可直接从镜像拷贝中读取数据,因此RAID 1可以提高读取性能 RAID 1 是磁盘阵列中单位成本最高的,但提供了很高的数据安全性和可用性。当一个磁盘失效时,系统可以自动切换到镜像磁盘上读写,而不需要重组失效的数据 RAID 1 N(偶数)块硬盘组合成一组镜像,N/2容量
5、RAID 5 磁盘阵列介绍
- RAID5
N(N>=3) 块盘组成阵列,一份数据产生N-1个条带,同时还有1份校验数据,共N份数据在N块盘上循环均衡存储 N块盘同时读写,读性能很高,但由于有校验机制的问题,写性能相对不高 (N-1) /N磁盘利用率 可靠性高,允许坏1块盘,不影响所有数据
5.1创建软RAID磁盘阵列步骤
1.检查是否已经安装madam安装包 rgm -q madam yum -install -y madam 2.添加过4块硬盘后使用fdisk分区命令分出dev/sdb1、dev/sdc1、dev/sdd1、dev/sde1,并且把分区类型的ID号标记为“fd” 1. fdisk dev/sdb
2. echo "n ^(空格) ^(空格) ^(空格) ^(空格) t fd w" | fdisk /dev/sde
3.mdadm -Cv /dev/md5 -l5 -n3 /dev/sd[b-d]1 -x1 /dev/sde1 cat /proc/mdstat(查看安装进度) watch -n 10 'cat /proc/mdstat'(监测 -n 10 秒一次 ) mkdir /data (创建data目录) mount /dev/md5 /data/(挂载md5) mdadm -D /dev/md5 (查看md5的详细信息) mdadm -D /dev/md5 mkfs -t xfs /dev/md5 mdadm /dev/md5 -f /dev/sde1(模拟md5RIAD的sde1磁盘故障) mdadm -D /dev/md5(查看md5状态) mdadm /dev/md5 -r /dev/sde1(移除sde1磁盘) vim /etc/mdadm.conf mdadm --detail --scan DEVICE /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1 unmount /dev/md5 /data/(解挂载md5) mdadm -S /dev/md5 mdadm -As /dev/md5 mdadm -D /dev/md5
6、RAID 6 磁盘阵列介绍
RAID 6 N(N>=4) 块盘组成阵列,(N-2) /N磁盘利用率 与RAID 5 相比,RAID 6 增加了第二个独立的奇偶校验信息块两个独立的奇偶系统使用不同的算法,即使两块磁盘同时失效也不会影响数据的使用相对于RAID 5 有更大的"写损失”,因此写性能较差
6、RAID 1+0 磁盘阵列介绍
RAID 1+0 (先做镜象,再做条带) N(偶数,N>=4)块盘两两镜像后,再组合成一个RAID 0 N/2磁盘利用率 N/2块盘同时写入,N块盘同时读取性能高,可靠性高
RAID 0+1 (先做条带,再做镜象) 读写性能与RAID 1 0 相同安全性低于 RAID 1 0 首先创建b/c/d/e的磁盘分区 echo "n
t fd w" | fdisk /dev/sde mdadm -Cv /dev/md0 -l1 -n2 /dev/sd[b,c]1 mdadm -Cv /dev/md1 -l1 -n2 /dev/sd[d,e]1 mdadm -Cv /dev/md10 -l0 -n2 /dev/md1 /dev/md0 mkfs -t xfs /dev/md10 mkdir /data mount /dev/md10 /data df -hT [root@192 ~]# vim /etc/mdadm.conf [root@192 ~]# mdadm --detail --scan mdadm.conf文件内输入: **- DEVICE /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1
- ARRAY /dev/md0 metadata=1.2 name=192.168.19.10:0 UUID=58c055d6:daa204cb:a52cecc0:3b58e747
- ARRAY /dev/md1 metadata=1.2 name=192.168.19.10:1 UUID=bbe025e1:d8022c9d:f5dd4806:7750d371
- ARRAY /dev/md10 metadata=1.2 name=192.168.19.10:10 UUID=10a63332:b1a240e3:a799a8da:8fb6df5c [root@192 ~]# vim /etc/mdadm.conf** cat /proc/mdstat mdadm /dev/md0 -f /dev/sdb1 cat /proc/mdstat [root@192 ~]# mdadm -S /dev/md0 mdadm: stopped /dev/md0 [root@192 ~]# mdadm -A /dev/md0 mdadm: /dev/md0 has been started with 1 drive (out of 2). [root@192 ~]# mdadm -D /dev/md0