• lvs
  • raid

lvm: logical volumes manager,从物理设备创建虚拟块设备,将一个或多个底层块设备组织成一个逻辑设备的模块,能够更好的管理磁盘,通过对底层的封装,对磁盘进行动态管理。
lvm与raid的配置使用
基本概念:
pv :physical volume物理卷处于最底层
vg :volume group卷组,建立在物理卷之上,最小单位为pe
lv :logical volume 逻辑卷建立在卷组之上,卷组中的未分配空间可以用于建立新的逻辑卷,逻辑卷建立后可以动态地扩展和缩小空间

管理使用:

pv管理工具 vg管理工具 lv管理工具
pvs:简要显示PV信息 vgs :显示vg简要信息 lvs :显示lv简要信息
pvdisplay:显示详细信息 vgdisplay 显示详细信息 lvdisplay 显示详细信息
pvcreate /dev/device... :创建PV vgcreate [-s #[kKmMgGtTpPeE]] VG_Name /dev/device...]#创建vg,-s指明pe大小,默认4m lvcreate -L #[mMgGtT] -n NAME VolumeGroup #-l 指明pe多少个 ,-L lv大小
pvremove /dev/device...删除PV vgextend VG_Name /dev/device... #扩容vg lvextend -L [+]#[mMgGtT] /dev/VG_NAME/LV_NAME: lv扩容后还需要修改逻辑大小:resizefs /dev/VG_NAME/LV_NAME
pvmove /dev/device /dev/device:数据迁移 vgreduce VG_Name /dev/device... #缩容 缩减逻辑卷看缩减步骤
vgremove vg_name删除卷组 :注收缩需先迁移数据 lvremove /dev/VG_NAME/LV_NAME #删除逻辑卷

lv缩减步骤:

# umount /dev/VG_NAME/LV_NAME#先卸载,xfs可以不用卸载
# e2fsck -f /dev/VG_NAME/LV_NAME #强制检测文件系统
# resize2fs /dev/VG_NAME/LV_NAME #[mMgGtT] #执行缩减操作
# lvreduce -L [-]#[mMgGtT] /dev/VG_NAME/LV_NAME #缩减lv
# mount

简单实践:

[root@xt ~]# pvcreate /dev/sdb{1,2}
  Physical volume "/dev/sdb1" successfully created.
  Physical volume "/dev/sdb2" successfully created.
[root@xt ~]# pvs
  PV         VG Fmt  Attr PSize PFree
  /dev/sdb1     lvm2 ---  1.00g 1.00g
  /dev/sdb2     lvm2 ---  1.00g 1.00g
[root@xt ~]# pvdisplay 
  "/dev/sdb2" is a new physical volume of "1.00 GiB"
  --- NEW Physical volume ---
  PV Name               /dev/sdb2
  VG Name               
  PV Size               1.00 GiB
  Allocatable           NO
  PE Size               0   
  Total PE              0
  Free PE               0
  Allocated PE          0
  PV UUID               3XTOcT-uIc3-73Hc-alkn-EKWJ-yyqv-CZYDsR

  "/dev/sdb1" is a new physical volume of "1.00 GiB"
  --- NEW Physical volume ---
  PV Name               /dev/sdb1
  VG Name               
  PV Size               1.00 GiB
  Allocatable           NO
  PE Size               0   
  Total PE              0
  Free PE               0
  Allocated PE          0
  PV UUID               KZ6Mwf-GPQc-xGQf-xWwS-FCnS-yLtn-XqJofh
= ================================================== 
[root@xt ~]# vgcreate myvg /dev/sdb1
  Volume group "myvg" successfully created
[root@xt ~]# vgs
  VG   #PV #LV #SN Attr   VSize    VFree   
  myvg   1   0   0 wz--n- 1020.00m 1020.00m
[root@xt ~]# vgextend myvg /dev/sdb2
  Volume group "myvg" successfully extended
[root@xt ~]# vgs
  VG   #PV #LV #SN Attr   VSize VFree
  myvg   2   0   0 wz--n- 1.99g 1.99g
[root@xt ~]# vgdisplay 
  --- Volume group ---
  VG Name               myvg
  System ID             
  Format                lvm2
  Metadata Areas        2
  Metadata Sequence No  2
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                0
  Open LV               0
  Max PV                0
  Cur PV                2
  Act PV                2
  VG Size               1.99 GiB
  PE Size               4.00 MiB
  Total PE              510
  Alloc PE / Size       0 / 0   
  Free  PE / Size       510 / 1.99 GiB
  VG UUID               b5t7N7-xMBg-5O8w-xS5m-2OTV-IpBd-98mR5w
===================================================
[root@xt ~]# lvcreate -L 200m --name mylv myvg 
  Logical volume "mylv" created.
[root@xt ~]# lvs
  LV   VG   Attr       LSize   Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  mylv myvg -wi-a----- 200.00m                                                    
[root@xt ~]# lvdisplay 
  --- Logical volume ---
  LV Path                /dev/myvg/mylv
  LV Name                mylv
  VG Name                myvg
  LV UUID                PelWrs-D13Q-8btE-q0RV-tFsA-6miC-FTqwns
  LV Write Access        read/write
  LV Creation host, time xt.com, 2019-01-11 22:24:56 +0800
  LV Status              available
  # open                 0
  LV Size                200.00 MiB
  Current LE             50
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     8192
  Block device           253:0
=================================================
[root@xt ~]# mkfs.ext4 /dev/myvg/mylv 
mke2fs 1.42.9 (28-Dec-2013)
Filesystem label=
OS type: Linux
Block size=1024 (log=0)
Fragment size=1024 (log=0)
Stride=0 blocks, Stripe width=0 blocks
51200 inodes, 204800 blocks
10240 blocks (5.00%) reserved for the super user
First data block=1
Maximum filesystem blocks=33816576
25 block groups
8192 blocks per group, 8192 fragments per group
2048 inodes per group
Superblock backups stored on blocks: 
    8193, 24577, 40961, 57345, 73729

Allocating group tables: done                            
Writing inode tables: done                            
Creating journal (4096 blocks): done
Writing superblocks and filesystem accounting information: done 

[root@xt ~]# mount /dev/myvg/mylv /mnt
[root@xt ~]# df -h
Filesystem             Size  Used Avail Use% Mounted on
/dev/sda1               10G  4.0G  6.1G  40% /
devtmpfs               984M     0  984M   0% /dev
tmpfs                  993M     0  993M   0% /dev/shm
tmpfs                  993M  8.7M  985M   1% /run
tmpfs                  993M     0  993M   0% /sys/fs/cgroup
/dev/sda3              256M   83M  173M  33% /boot
tmpfs                  199M     0  199M   0% /run/user/0
/dev/mapper/myvg-mylv  190M  1.6M  175M   1% /mnt
==========================================
模拟数据迁移:需要同一个vg
[root@xt mnt]# mount /dev/myvg/mylv /mnt
[root@xt mnt]# cp -r /tmp/ /mnt/
[root@xt tmp]# pvs
  PV         VG   Fmt  Attr PSize    PFree    
  /dev/sdb1  myvg lvm2 a--  1020.00m  820.00m #数据主要在sdb1,迁移到目标的容量要比现有大
  /dev/sdb2  myvg lvm2 a--  1020.00m 1020.00m
[root@xt tmp]# pvmove /dev/sdb1 /dev/sdb2
  /dev/sdb1: Moved: 4.00%
  /dev/sdb1: Moved: 100.00%
[root@xt tmp]# pvs
  PV         VG   Fmt  Attr PSize    PFree   
  /dev/sdb1  myvg lvm2 a--  1020.00m 1020.00m
  /dev/sdb2  myvg lvm2 a--  1020.00m  820.00m
[root@xt tmp]# vgreduce myvg  /dev/sdb1
  Removed "/dev/sdb1" from volume group "myvg"
[root@xt tmp]# pvs
  PV         VG   Fmt  Attr PSize    PFree  
  /dev/sdb1       lvm2 ---     1.00g   1.00g
  /dev/sdb2  myvg lvm2 a--  1020.00m 820.00m
[root@xt tmp]# vgs
  VG   #PV #LV #SN Attr   VSize    VFree  
  myvg   1   1   0 wz--n- 1020.00m 820.00m

RAID:Redundant arrays of inexpensive | independent disks
为了解决为了组合廉价的小磁盘来代替昂贵的大磁盘,同时在磁盘失效的时候能保护数据。引入了RAID机制,RAID可以充分发挥出多块磁盘的优势,可以提升IO能力,增大容量,提供容错等能力。

  • RAID实现方式:
    外接式磁盘阵列:通过扩展卡提供适配能力
    内接式RAID:主板集成控制器
    软件实现,但生产不建议
  • RAID级别:

    • RAID 0:称为stripe条带卷,可以将多块磁盘组合成一个更大的硬盘组,从而提升磁盘性能和吞吐量,至少2块磁盘。
      lvm与raid的配置使用

    • RAID 1 :称为镜像mirror,一份数据存为完全写为2份
      lvm与raid的配置使用

    • RAID 2/3使用的比较少。

    • RAID 4:采用一个专用的磁盘作为校验盘,其余磁盘作为数据盘,数据按数据块的方式交叉存储到各个数据盘中。
      lvm与raid的配置使用

    • RAID 5 :在4的基础之上改进,校验码轮询放在各个盘,消除校验盘单点故障。5 兼顾存储性能、数据安全和存储成本等各方面因素,它可以理解为 RAID0 和 RAID1 的折中方案。
      lvm与raid的配置使用

    • RAID 6 :在5的基础上再加多一块校验盘,双重校验,相对成本比较高
      lvm与raid的配置使用

    • RIAD 10:RAID0 和RAID 1结合,先做raid0再做raid1,但RAID 01与之刚好相反。能利用的空间都只有一半。
      lvm与raid的配置使用
  • 软件实现RAID方法:mdadm-4.1-rc1_2.el7.x86_64 程序包实现
    • mdadm工具使用:支持RAID的级别:LINEAR, RAID0, RAID1, RAID4, RAID5, RAID6, RAID10;
    • 用法:mdadm [mode] <raiddevice> [options] <physical-devices>
      模式:
      创建: -C
      装配: -A
      监控: -F
      管理: -f,-r,-a
      <raiddevice>: /dev/md#
      <physical-devices> :块设备
    • 如:mdadm -C /dev/md0 -a yes -n 3 -x 1 -l 5 /dev/sda{5,6,7,8}
      选项:
      -n #: 使用#个块设备来创建此RAID;
      -l #:指明要创建的RAID的级别;
      -a {yes|no} #自动创建目标RAID设备的设备文件;
      -c CHUNK_SIZE #指明块大小;
      -x #: 指明空闲盘的个数;
    • 查看raid信息及观察md的状态:
      mdadm -D /dev/md#
      cat /proc/mdstat
    • 管理模式
      -f: 标记指定磁盘为损坏; 模拟损坏:mdadm /dev/md0 -f /dev/sda7
      -a: 添加磁盘
      -r: 移除磁盘
    • 停止设备
      mdadm -S /dev/md#