RAID

  • 一.RAID磁盘阵列
  • 二.RAID 级别介绍
  • 1.RAID 0 (条带化存储)
  • 2.RAID 1(镜像存储)
  • 3. RAID 5
  • 4. RAID 6
  • 5.RAID 1+0(先做镜象,再做条带)
  • 6.RAID 0+1(先做条带,再做镜象)
  • 三.创建软RAID磁盘阵列步骤
  • 四.创建RAID5磁盘阵列实验步骤
  • 五.创建RAID10.实验


一.RAID磁盘阵列

  • 独立冗余磁盘阵列
  • 把多块独立的物理硬盘按不同的方式组合起来形成一个硬盘组(逻辑硬盘)。从而提供比单个硬盘更高的存储性能和提供数据备份技术。
  • 组成磁盘阵列的不同方式称为RAID级别(RAID Levels)
  • ●常用的RAID级别
    RAID0、RAID1、RAID5、RAID6、RAID1+0等

二.RAID 级别介绍

1.RAID 0 (条带化存储)

●RAID 0连续以位或字节为单位分割数据,并行读/写于多个磁盘上,因此具有很高的数据传输率,但它没有数据冗余。

●RAID 0只是单纯的提高性能,并没有为数据的可靠性提供保证,而且其中的一个磁盘失效将影响到所有数据

●RAID 0不能应用于数据安全性要求高的场合

2.RAID 1(镜像存储)

●通过磁盘数据镜像实现数据冗余,在成对的独立磁盘上产生互为备份的数据

●当原始数据繁忙时,可直接从镜像拷贝中读取数据,因此RAID 1可以提高读取性能

●RAID 1是磁盘阵列中单位成本最高的。但提供了很高的数据安全性和可用性。当一个磁盘失效时,系统可以自动切换到镜像磁盘上读写,而不需要重组失效的数据。

3. RAID 5

●N(N≥3)块盘组成阵列,一份数据产生N-1个条带,同时还有一份校验数据,共N份数据在N块盘上循环均衡存储

●N块盘同时读写,读性能很高,但由于有校验机制的问题,写性能相对不高
●(N-1)/N 磁盘利用率

●可靠性高,允许坏一块盘,不影响所有数据

4. RAID 6

●N(N≥4)块盘组成阵列,(N-2)/N 磁盘利用率

●与RAID 5相比,RAID 6增加了第二块独立的奇偶校验信息块

●两个独立的奇偶系统使用不同的算法,即使两块磁盘同时失效也不会影响数据的使用

●相对于RAID 5有更大的“写损失”,因此写性能较差

5.RAID 1+0(先做镜象,再做条带)

●N (偶数,N>=4)。块盘两两镜像后,再组合成一个RAID 0

●N/2磁盘利用率

●N/2块盘同时写入,N块盘同时读取

●性能高,可靠性高

6.RAID 0+1(先做条带,再做镜象)

●读写性能与RAID 10相同
●安全性低于RAID 10

RAID级别

硬盘数量

硬盘利用率

是否有校验

保护能力

写性能

RAID0

N

N



单硬盘的N倍 写性能最快

RAID1

N(偶数)

N/2


允许一个故障

需写两对有存储设备互为主备

RAID5

N>=3

(n-1)/N


允许一个故障

需要写计算校验

RAID6

N>=4

(n-2)/N


允许两个故障

需要双重写计算校验

RAID10

N>=4(偶数)

N/2


允许两个基组中各坏一个

N/2块盘同时写入

三.创建软RAID磁盘阵列步骤

创建软RAID磁盘阵列步骤:
1、检查是否已安装mladm软件包
rpm -q mdadm
yum install -y mdadm

2、使用fdisk工具将新磁盘设备/dev/ sdb、/dev/sdc、 /dev/sdd、 /dev/sde 划分出主分区sdb1、sdc1、 sdd1、 sde1, 并且把分区类型的ID标记号改为“fd”

fdisk /dev/sdb
fdisk /dev/sdc

3、创建RAID设备
#创建RAID5
mdadm -C -v /dev/md0 [-a yes] -15 -n3 /dev/sd[bcd]1 -x1 /dev/sde1

-C:表示新建;
-v: 显示创建过程中的详细信息。
/dev/md0:创建RAID5 的名称。
-ayes:–auto,表示如果有什么设备文件没有存在的话就自动创建,可省略。
-l: 指定RAID的级别,15表示创建RAID5.
-n: 指定使用几块硬盘创建RAID, n3表示使用3块硬盘创建RAID。
/dev/sd [bcd]1:指定使用这3块磁盘分区去创建RAID。
-x:指定使用几块硬盘做RAID的热备用盘,x1表示保留1块空闲的硬盘作备用
/dev/sde1:指定用作于备用的磁盘

4、创建并挂载文件系统

mkfs -t Xfs /dev/ md0
 mkdir /myraid .
 mount /dev/md0 /myraid/
 df -Th
 cp /etc/ fstab /etc/ fstab.bak
 vim /etc/ fstab
 /dev/md0 /myraid xfs defaults 00

5、实现故障恢复

mdadm /dev/md0 -f /dev/ sdb1 #模拟/dev/sdb1故障
mdadm -D /dev/md0 #查看发现sde1已顶替sdb1
四.创建RAID5磁盘阵列实验步骤

1.创建4块硬盘:

多个硬盘做NFS 多个硬盘组合_bc

fdisk -l 检查4块硬盘是否安装

多个硬盘做NFS 多个硬盘组合_磁盘阵列_02

检查是否安装mdadm 软件包:

多个硬盘做NFS 多个硬盘组合_多个硬盘做NFS_03


2.使用fdisk工具将新磁盘设备/dev/ sdb、/dev/sdc、 /dev/sdd、 /dev/sde 划分出主分区sdb1、sdc1、 sdd1、 sde1, 并且把分区类型的ID标记号改为“fd”

多个硬盘做NFS 多个硬盘组合_磁盘阵列_04

以同样的方法创建sdc、sdd 、sde再fdisk -l 查看磁盘分区情况

多个硬盘做NFS 多个硬盘组合_linux_05

3.创建RAID设备

多个硬盘做NFS 多个硬盘组合_磁盘阵列_06

创建好后,格式化,创建目录,挂载:

多个硬盘做NFS 多个硬盘组合_磁盘阵列_07


4.模拟故障,实现故障恢复:

此时sdb 故障 ,已被顶替

多个硬盘做NFS 多个硬盘组合_多个硬盘做NFS_08

查看状态:

多个硬盘做NFS 多个硬盘组合_磁盘阵列_09


多个硬盘做NFS 多个硬盘组合_linux_10


移除坏的磁盘,再添加回来:

多个硬盘做NFS 多个硬盘组合_linux_11


再查看状态,命令: mdadm -D /dev/md0

多个硬盘做NFS 多个硬盘组合_多个硬盘做NFS_12

五.创建RAID10.实验

1.创建4块硬盘:

多个硬盘做NFS 多个硬盘组合_数据_13


2.fdisk -l 检查硬盘是否安装:

多个硬盘做NFS 多个硬盘组合_数据_14


3.查询是否安装软件包

多个硬盘做NFS 多个硬盘组合_bc_15


4.创建分区,分区类型修改为fd:

多个硬盘做NFS 多个硬盘组合_bc_16


多个硬盘做NFS 多个硬盘组合_多个硬盘做NFS_17


多个硬盘做NFS 多个硬盘组合_多个硬盘做NFS_18


多个硬盘做NFS 多个硬盘组合_linux_19


创建RAID10,先做镜像,再做条带:

查看状态:

多个硬盘做NFS 多个硬盘组合_bc_20

格式化RAID10:建立目录,并将md10挂载上去,因为RAID10中有两个盘为备份,所以实际使用空间是最大容量的1/2

多个硬盘做NFS 多个硬盘组合_linux_21

模拟/dev/sdb1故障:

多个硬盘做NFS 多个硬盘组合_多个硬盘做NFS_22

sdb1,故障。可正常使用

多个硬盘做NFS 多个硬盘组合_linux_23

先移除sdb1,再添加sdb1:

多个硬盘做NFS 多个硬盘组合_数据_24

多个硬盘做NFS 多个硬盘组合_linux_25


多个硬盘做NFS 多个硬盘组合_数据_26