一、 ISCSI存储

本例测试环境:

DELL R620 E5-2630 v2,128G,250SSD*2,Raid1 三台,安装Proxmox VE 5.X

Synology DS1817+ 双核8G .4千兆口(添加一块10G光纤),2TB*8,Raid1

Synology上已建好Target-1 iqn.2000-01.com.synology:DataCenter001.Target-1fcb817738X

1. 获取查看iSCSItarget

执行命令

iscsiadm -m discovery -t sendtargets –p <target IP>

root@pve-01:~# iscsiadm -m discovery -t sendtargets -p 10.91.30.224

10.91.30.224:3260,1 iqn.2000-01.com.synology:DataCenter001.Target-1.fcb8177382

2. 登录iSCSI目标

在各节点上分别执行以下操作登录iSCSI目标

a.执行命令iscsiadm -m node -T <iSCSI-target> -p <target-IP> -l登录iSCSI目标:(连接iscsi)

iscsiadm -m node -T iqn.2000-01.com.synology:DataCenter001.Target-1.fcb817738x -p 10.91.30.224 –l

b.为了重启系统能自动登录目标,执行以下命令:(不做此步,重启iscsi无法连接)

iscsiadm -m node -p 10.91.30.224 –op update -n node.startup -v automatic

现在,在该节点上增加了新的磁盘/dev/sdb(本地磁盘只有/dev/sda一个)。

3. 在iSCSI磁盘 /dev/sdb上创建LVM分区、创建物理卷、创建卷组(只在某一个节点进行如下操作即可。)

a.执行磁盘分区命令:

root@pve-01:/#fdisk /dev/sdb

Welcome to fdisk(util-linux 2.25.2).

Changes will remainin memory only, until you decide to write them.

Be careful beforeusing the write command.

Command (m forhelp):g      (建立GPT分区表)

…………

Command (m forhelp):n      (建立一个新的分区,输入分区号、起始结束扇区等)

…………

Command (m forhelp):t      (改变分区类型31)

Selected partition1

Partition type(type L to list all types):31  (分区1的类型改变为Linux LVM)

Command(m for help): w      (写入磁盘并退出fdisk)

b.在分区/dev/sdb1上创建物理卷physical volume (PV):

pvcreate /dev/sdb1

  c.创建卷组volume group (VG),VG名为“vg-pve”

vgcreate vg-pve /dev/sdb1

至此,iSCSI共享存储已准备就绪。可供proxmoxVE使用了。

注意:如多网卡同时连接iscsi存储,会出现多路径问题,请一个一个的添加(也可先做网口汇聚)

4. 在proxmox VE的GUI中增加共享存储

  用鼠标依次选:数据中心-存储-添加-LVM

  出现添加LVM的对话框:

Proxmox VE 安装、配置、使用之第四章 存储使用_虚拟化

图4-1-1

依次命名ID(iSCSI-lvm)、选择卷组(刚才创建的卷组vg-pve会出现在下拉菜单中,选择它即可)、节点(选所有)、选启用、选共享,然后点添加。

现在共享存储iSCSI-lvm就会出现在proxmoxVE各节点。共享存储iSCSI-lvm为LVM存储,可将VM的硬盘创建或移动到上面运行以实现HA或经过它热迁移VM。但LVM不支持精简(Thin)磁盘和快照。

二、 NFS存储

本节内容请参考本人另一篇文档《Openfiler2.99.1图文教程-搭创建ISCSI&NFS存储》

三、 Ceph存储

1. 搭建ceph使用本地挂载硬盘为proxmox 提供存储空间

在线安装

luminous 为ceph10.2

hammer 为ceph0.94

每个节点执行

# pveceph install --version luminous

2. 配置ceph网络

在主节点执行(在任意一个节点执行即可,执行一遍)

# pveceph init --network 10.91.30.0/24

3. 创建ceph监视器mon

可以创建多个mon,在3个节点执行创建奇数个mon

# pveceph createmon

查看mon状态

# ceph mon stat

4. 创建OSD

# pveceph createosd /dev/sdb

查看ceph osd 运行状态

# cpeh osd stat

# ceph osd tree

5. 创建存储池

# ceph osd pool create pool1 128 128

6. web登陆

https://IP:8006

结果如图

Proxmox VE 安装、配置、使用之第四章 存储使用_虚拟化_02

图4-3-1

Proxmox VE 安装、配置、使用之第四章 存储使用_虚拟化_03

图4-3-2

四、 Proxmox VE主机硬盘管理

一、硬盘管理

1查看硬盘

#fdisk -l

例如有/dev/sdb

2 新建一个分区

# sgdisk -N 1 /dev/sdb

3 创建pv

#pvcreate --metadatasize 250k -y -ff /dev/sdb1

4 创建vg

#vgcreate pve1 /dev/sdb1

5 创建lv 这里100g根据自己硬盘大小填写

#lvcreate -L 100g -n data pve1

6 转换为thin-pool

#lvconvert --type thin-pool pve1/data

7 警告:

在某些情况下,LVM不会正确计算元数据池/块大小。请检查metadatapool是否足够大。必须满足的公式是:

PoolSize / ChunkSize * 64b = MetadataPoolSize

你可以通过命令获取这些信息

#lvs -a -o name,size,chunk_size

8 增加到存储 可以在数据中心存储 直接添加lvm-thin id:lvm1, 卷组:pve1, thin pool:data

或者编辑/etc/pve/storage.cfg

lvmthin: lvm1

thinpool data

vgname pve1

content rootdir,images

Creating a Volume Group

Let’s assume we have an empty disk /dev/sdb, onto which we want to create a volume group named “vmdata”.

Caution Please note that the following commands will destroy all existing data on /dev/sdb.

First create a partition.

# sgdisk -N 1 /dev/sdb

Create a Physical Volume (PV) without confirmation and 250K metadatasize.

# pvcreate --metadatasize 250k -y -ff /dev/sdb1

Create a volume group named “vmdata” on /dev/sdb1

# vgcreate vmdata /dev/sdb1

Creating an extra LV for /var/lib/vz

This can be easily done by creating a new thin LV.

# lvcreate -n <Name> -V <Size[M,G,T]> <VG>/<LVThin_pool>

A real world example:

# lvcreate -n vz -V 10G pve/data

Now a filesystem must be created on the LV.

# mkfs.ext4 /dev/pve/vz

At last this has to be mounted.

Warning be sure that /var/lib/vz is empty. On a default installation it’s not.

To make it always accessible add the following line in /etc/fstab.

# echo '/dev/pve/vz /var/lib/vz ext4 defaults 0 2' >> /etc/fstab

Resizing the thin pool

Resize the LV and the metadata pool can be achieved with the following command.

# lvresize --size +<size[\M,G,T]> --poolmetadatasize +<size[\M,G]> <VG>/<LVThin_pool>

Note When extending the data pool, the metadata pool must also be extended.

Create a LVM-thin pool

A thin pool has to be created on top of a volume group. How to create a volume group see Section LVM.

# lvcreate -L 80G -T -n vmstore vmdata

二、增加为zfs格式:

创建存储池(type raidz 两块硬盘是raid1,三块硬盘是raid5,还可以用raidz1,2,3等高级用法)

性能对比

Stripe > Mirror

Stripe > RAIDZ1 > RAIDZ2 > RAIDZ3

数据可靠性

Mirror > Stripe

RAIDZ3 > RAIDZ2 > RAIDZ1 > Stripe

zpool create -f -o ashift=12 <pool> <type> <device> log <device-part1> cache <device-part2>

对已有pool增加缓存

zpool add -f <pool> log <device-part1> cache <device-part2>

更换失败的硬盘

zpool replace -f <pool> <old device> <new-device>

pool存储池丢失处理.no pools avaliable

查看存储池状态

#zpool status -v

删除缓存

#rm -f /etc/zfs/zpool.cache

导入存储池

#zpool import zfs-v

如果提示 -f

#zpool import -f zfs-v

如果有设置过缓存或者log,可能会提示 -m

#zpool import -f zfs-v -m

LVM使用缓存

#sda为HDD sdb为SSD

创建物理卷

pvcreate /dev/sda

pvcreate /dev/sdb

创建卷组vg

vgcreate vg /dev/sda

vgextend vg /dev/sdb

创建逻辑卷(data为存储卷,cache为缓存卷,meta为缓冲卷索引,其中cache:meta不能大于1000:1,meta最小为8M)

lvcreate -L 500G -n data /dev/sda

lvcreate -L 220G -n cache /dev/sdb

lvcreate -L 220G -n meta /dev/sdb

创建缓存池(注意cache和meta的顺序不能颠倒)

lvconvert --type cache-pool --poolmetadata vg/meta vg/cache

将存储卷加入到缓存池中(cachemode有writeback和writethrough两种模式,默认为writethrough)

lvconvert --type cache --cachepool vg/cache --cachemode writeback vg/data

注:writeback会在写入cache完成后,再写入date中

writethrough会在写入cache的同时,写入date(写入date慢于cache)