相信很多人希望有自己的实验环境,用来学习产品、验证设计、模拟故障等等,最近终于攒齐了所有硬件,搭起了 mini 数据中心。
免责申明:下方所有操作均在可控的实验环境中进行,仅为演示产品原理、功能,操作方法不一定适用于生产环境,操作务必谨慎。
本文 1600 字,插图30张,读完需3分钟。
这篇文章将是此系列关于 vSAN 的最后一篇文章,未来很可能不会再去写相关内容,欢迎有兴趣的朋友投稿补充。
0x00. vSAN 主机重新安装 ESXi 后会影响数据吗?
简单的答案是:不影响!
一般 ESXi 会安装在独立的 HDD 或者 SD 卡中,在重装 ESXi 时 ESXi 可以检测到磁盘已有的 vSAN 分区并将其标记出来,只要安装的时候不将 ESXi 安装在这些硬盘上,vSAN 的数据不会丢失的。
另外,一般从 ESXi 故障到重装完成很可能得数小时,而 vSAN 在节点丢失后 1 小时便会启动自动修复机制,数据会在其他主机上得以重建,即使此主机无法恢复,虚拟机也不会受影响。
0x01. vSAN 主机 ESXi 故障后的重装
在重装前,一定要注意,vSAN 对版本要求比较敏感,务必使用完全一致的版本号来重装 ESXi。
在我们的 vSAN 环境中共有四台主机,我们此次试验使用 43 ,可以看到此主机上是有部分数据的。
我们直接将主机 43 关机模拟故障,vCenter 中显示主机未响应。
假设主机 43 的 ESXi 安装盘故障,打开 43 的配置,移除 2GB 的硬盘。
新增一个 2GB 的硬盘
为其挂载 ESXi 安装镜像,然后开机。
在安装界面,可以看到 vSAN 的磁盘前面被标记了 #
我们选择刚才更换的 2GB 磁盘安装 ESXi
按照安装向导完成其他部分的配置,等待安装完成。
0x02. vSAN 主机 ESXi 重装后的配置
安装完成并重启完毕后,需要修改 ESXi 的基本网络配置:
开启 SSH,未来会用到命令行。
修改完成后登录主机,将主机置于维护模式(推荐)。
打开原 vCenter,选择连接 192.168.10.43(也可以将原主机从 vCenter 中移除,然后再次添加主机)。
系统可能会要求重新输入用户名密码等信息。
主机添加完毕后,打开原来主机关联的 vDS,选择添加和管理主机(如果之前已经将故障主机从 vCenter 中移除,又加了进来,则此处需要做添加主机的操作)。
选择管理主机网络。
选择 192.168.10.43。
重新为 vDS 分配上行链路(vmnic 为传输 vSAN 流量的端口)。
点击完成。
点击 vDS,会提示 192.168.10.43 的配置与此 vDS 不同步,可以点击纠正。
返回主机,可以看到主机已经正确识别到 vDS。
新增 vSAN VMKernel,配置合规的地址。
网络配置完成后可以将主机退出维护模式。
此时 vSAN 准备工作已经完成,点击主机的事件,可以看到系统提示主机在 vSAN 的集群(vCenter集群)中,但是未启用 vSAN 服务。这时候需要通过命令来将主机加入 vSAN集群 。
打开集群中其他主机的 SSH,使用 esxcli vsan cluster get 命令查看 vSAN 集群(此集群是指启用 vSAN 功能的集群,不同于 vCenter 集群,不过正常情况下两个集群是对等的)的状态。此处需要记下 Sub-Cluster UUID。
登录修复后主机的 SSH,使用命令 esxcli vsan cluster join -u Sub-Cluster-UUID 将主机加入 vSAN 集群。
命令敲下去后输入 esxcli vsan cluster get 查看主机 vSAN 集群状态。
节点数变为4,表示主机加入集群成功。
返回 vCenter,可以看到相关的配置任务。
主机的磁盘组已被自动加入集群中。
虚拟机对象健康状态均正常。