4月9日至15日,Yealab数据中心实验室马海波老师将到上海宣讲VMware vSphere5。届时,对于内部安全学员可以免费听课,对外优惠价格为800元/周,并附送价值500元的教学配套视频。欢迎对虚拟化感兴趣的朋友前来试听(限2天)

数据中心第一门课程vsphere正式登陆上海Yeslab,报名上海安全CCIE,送本地数据中心课程!


YESLAB数据中心课程介绍

http://blog.sina.com.cn/s/blog_52ddfea301010kdv.html


4月底之前报名Yeslab上海安全CCIE的学员,享受21800(一次不过返还一次考试费)+ 数据中心本地课程的优惠!!!

Yeslab安全实验室,3月累计PASS 12人,创月PASS人数新高!!!

http://blog.sina.com.cn/s/blog_52ddfea3010112l5.html

 

yeslab 现任明教教主VMware vSphere5.0 独家最新淘宝购买连接

http://item.taobao.com/item.htm?id=13921698363

 

vSphere 5.0SAN环境下部署VMware vSphere Storage Appliance(这是vsphere5第13章内容,如需获取相关视频讲解,请购买 Yeslab vsphere5录像)

       在无SAN的 vSphere环境中使用vSphere Storage Appliance可以在本地存储上创建共享存储,来实现vSphere一些高级特性,比如vMotion,DRS,以及high availability (HA),实施VSA的最终目的就是在不损失vSphere一些高级特性应用的前提下尽量为中小型企业节省构建整个SAN所支出的费用。

      VSA利用两台或者三台ESXi5主机上的本地存储创建一个VSA存储Cluster,这个Cluster提供了NFS方式的共享存储。此外,VSA利用ESXi主机上的硬件Raid10阵列以及Cluster上的数据复制功能来实现即使其中一个ESXi节点故障或者其中磁盘损坏情况下,在恢复过程中整个共享存储可以继续正常使用。

 

VSA Cluster所需组件:

ESXi 5.0 Hosts (两台或者三台): 其中本地存储要求为Raid10阵列,必须初始配置。

vCenter Server 5.0 :管理参与VSA Cluster的ESXi主机,如果它是VM环境,则运行此VM的ESXi主机不能加入VSA Cluster。

vSphere Client 5.0 :远程连接管理vCenter工具,通过VSA Manager面板可以管理VSA Cluster。

vSphere Storage Appliance 10 :  运行SUSE linux 企业版的虚拟机VM,里面运行的一组storage clustering services执行如下任务:管理每个ESXi主机的存储容量、性能,提供iSCSI服务,管理VSA与VSA Manager之间的结连。

VSA Manager : vCenter 5.0扩展插件,执行部署VSA,挂载VSA上的存储卷,监控整个VSA Cluster状态、性能。

VSA Cluster Member : 每台运行着VSA虚拟机,并参与VSA Cluster的ESXi主机,只能是两台或者三台。

VSA Cluster Service : 运行在vCenter5.0上服务,仅仅用于两节点VSA Cluster模式,可以为两个节点提供故障仲裁。

Gigabit Ethernet Switches: Gigabit Ethernet switches为VSA Cluster可以提供高速的骨干网络。

本次部署环境实为两节点架构:

clip_image002

其中实现共享存储的原理图如下:

clip_image002[4]

VSA Cluster 其中每ESXi HOST网络架构图如下:

clip_image004

关于上面的一些图中内容解释,会在教程视频的理论课程中介绍,限于篇幅,在此文档里不详述。

 

下面是整个部署实验部分:

1) 实验环境规划:

image

2)实验步骤:

一,安装准备vCenter 5.0环境,此部分过程略

clip_image002[6]

 

二,安装准备两台ESXi主机,原始默认配置,并且本地存储使用Raid10阵列,并添加到vCenter的DC中。

clip_image004

clip_image006

每台ESXi主机都必须是单一本地存储(建议使用Raid10阵列,且此时也不能部署任何VM在ESXi上):

clip_image002[8]

clip_image004[4]

网络配置也为默认情况:

clip_image006[4]

clip_image008

 

三,在vCenter上安装VSA Manager:

clip_image002[10]

clip_image004[6]

在这个比较长的自动安装过程中,会自动扫描所有和vCenter同一网段的ESXi主机,并试图将这些扫描到的主机加入到vCenter里一个新创建的VSADC数据中心中,但是在过程中由于没有弹出ESXi所需的凭据认证(也就是用户名和密码),所以这个过程可能会失败,不过不会影响我们后续操作,因为我们已经创建了一个数据中心:yeslab vsa,并已经将两台ESXi加入了此数据中心。

clip_image002[12]

安装完毕后一定要在vCenter上确认下面几个服务能够正常启动:

clip_image004[8]

需要重新登录vCenter后,在数据中心管理界面会多了VSA Manager tab面板 (另外运行vCenter的客户端需要安装最新的plash player):

clip_image006[6]

在开始安装VSA cluster之前,我们最好分别先在两台ESXi主机上手动为vSwitch 0添加一个NIC team的网卡,如果使用下面自动添加功能的话,很容易导致网卡添加不恰当造成ESXi管理IP连接不同的现象:

clip_image002[14]

clip_image004[10]

上面具体添加哪块NIC,需要根据自己实际环境情况决定,接下来开始安装VSA Cluster:

clip_image006[8]

clip_image008[4]

在下图的界面里,注意:可能会因为各种错误的配置导致status状态出现红色叉号不能进行下一步,如不是单一的存储或者存储上已经有VM或者不是默认的网络配置等等。

clip_image002[16]

配置VSA Cluster的IP参数:

clip_image004[12]

配置ESXi主机66.66.3.103上的VSA0的IP参数:(每个IP参数的具体功能参考前面的IP规划内容对号入座)

clip_image006[10]

配置ESXi主机66.66.3.202上的VSA1的IP参数:(每个IP参数的具体功能参考前面的IP规划内容对号入座)

clip_image002[18]

clip_image004[14]

clip_image006[12]

又是一个漫长的安装过程:

clip_image002[20]

ESXi66.66.3.103主机上自动配置的网络内容:(根据实际情况不需要更改)

clip_image004[16]

ESXi66.66.3.202主机上自动配置的网络内容:(根据实际情况需要更改)

clip_image006[14]

改成适当的NIC Team:

clip_image002[22]

vSwitch1上的VSA-VMotion VM kernel默认没有开FT功能,如果开启FT,需要两台ESXi分别手动如下配置:

clip_image004[18]

接下来等待一段时间,所有程序安装完毕,如下图:

clip_image006[16]

关闭安装界面之后,出现管理VSA界面,其中VSADs-0和VSADs-1就是两个创建好的共享存储:

clip_image002[24]

部署XP虚拟机准备测试FT功能:

clip_image004[20]

手动开启XP VM的FT功能:

clip_image002[26]

成功使用vSphere高级特性之一FT功能--至此部署VSA完毕!

clip_image004[22]

参考文档:VM-vSphere-Storage-Appliance-Deep-Dive-WP

                  vsphere-storage-appliance-10-admin

                                                                                                                                                  By: heymo (Yeslab 马海波) 2012/3/29