系统版本:RHEL5.4
 
selinux关闭,刷新iptables -F
 
配置yum仓库
 
192.168.2.10     target.a.com     宿主机
 
192.168.2.20     node1.a.com     节点(虚拟机) initiators
 
192.168.2.30     node2.a.com     节点(虚拟机) initiators
 
安装scsi, luciiscsi, ricci套件
宿主机/node1/node2:
vim  /etc/hosts
192.168.2.10    target.a.com  target
192.168.2.20    node1.a.com     node1
192.168.2.30    node2.a.com     node2
并修改三台的hostname
 
target # yum install scsi*  luci -y (luci套件是宿主机集群web接口)
 
target # luci_admin init 设置密码
 
target # chkconfig luci --level 35 on (设置开机启动)
 
target # chkconfig tgtd  --level 35 on (设置开机启动)
 
target # service luci start
 
target # service tgtd  start
fdisk  /dev/sda   //新建一个分区用来做共享磁盘。
 
tgtadm --lld iscsi --op new --mode target --tid=1 --targetname iqn.2011-10.com.a.target:disk
tgtadm --lld iscsi --op  new --mode=logicalunit --tid=1  --lun=1 --backing-store /dev/sda2
增加一个lun块设备提供给node
tgtadm --lld iscsi --op bind --mode=target --tid=1 --initiator-address=192.168.2.0/24
//创建一个acl访问控制链接  允许192.168.2.0网段的用户可以使用。
 
并把它们写入/etc/rc.d/rc.local进行开机启动
 
tgtadm --lld iscsi --op show --mode target    //通过show来查看共享快信息。
 
node1# yum install  iscsi  ricci –y
service  iscsi  start
node1# chkconfig  iscsi  --level 35 on
 
vim /etc/iscsi/initiatorname.iscsi
InitiatorName=iqn.2011-10.com.abc.node1
 
iscsiadm --mode discovery --type sendtargets --portal 192.168.2.10
发出一个发现指令去连接192.168.2.10
iscsiadm --mode node --targetname iqn.2011-10.com.a.target:disk --portal 192.168.2.10 --login
允许登陆到192.168.2.10上面
 
 
node1# service  ricci start
 
node1# chkconfig ricci --level 35 on (设置开机启动)
 
做完后就可以通过fdisk –l观察到本地磁盘多了一块/dev/sdb硬盘。
 
node2上边和node1配置一样,就不多说了。
 
使用web界面生成集群配置文件cluster.conf
 
在宿主机中访问https://192.168.2.10:8084
rhcs群集构建 scsi+iscsi+luci+ricci的web页面配置_职场
 
直接是,进入登陆页面
rhcs群集构建 scsi+iscsi+luci+ricci的web页面配置_职场_02
 
输入luci帐号密码,进入家目录。创建集群cluster2
这个集群的名称无所谓,但是 不能用cluster这个名称.
rhcs群集构建 scsi+iscsi+luci+ricci的web页面配置_休闲_03
然后在node1主机上面把存储设备的文件系统创建为gfs文件系统.
 
步骤:
·         在其中一个node上把共享磁盘分区
·         partprobe   /dev/sdb   //重新读取分区表,这一步需要在两个node节点上都做
·         pvcreate  /dev/sdb1建立物理卷
·         vgcreate  vg01  /dev/sdb1建立卷组
·         lvcreate  -L  2000m  -n lv01  vg01建立逻辑卷
·         把逻辑卷格式化为gfs文件系统。
·         gfs_mkfs  -p  lock_dlm  -t  cluster1:lv01  -j  3  /dev/vg01/lv01   //cluster1必须是你创建的集群名
·         重启逻辑卷守护进程  service  clvmd  restart
测试:
1,在俩个node上都建立挂在点   mkdir  /mnt/cluster
2,并把逻辑卷都挂载上  mount  /dev/vg01/lv01  /mnt/cluster
3,在其中一个node上的挂在点内创建文件和http页面,切换到另一个node,可以看到共享的信息。从而实现共享存储。
 
测试完成后,建立fence设备
rhcs群集构建 scsi+iscsi+luci+ricci的web页面配置_职场_04
进入检索页面后,创建集群钥匙
 
rhcs群集构建 scsi+iscsi+luci+ricci的web页面配置_休闲_05
 
然后直接提交
 
创建失败恢复域,修改某一个node的优先级,越小越优先:
rhcs群集构建 scsi+iscsi+luci+ricci的web页面配置_休闲_06
 
添加一个fence设备
我们用的虚拟机做的宿主机,所以fence设备要选 virtual  machine  fencing
rhcs群集构建 scsi+iscsi+luci+ricci的web页面配置_职场_07
把这个fence1应用到各个node上边,两个node主机都应用.
rhcs群集构建 scsi+iscsi+luci+ricci的web页面配置_rhcs群集构建_08
点击进入node1.a.com,添加fence设备
rhcs群集构建 scsi+iscsi+luci+ricci的web页面配置_休闲_09
同样,点击node2,添加fence设备.
rhcs群集构建 scsi+iscsi+luci+ricci的web页面配置_职场_10
应用之后需要添加群集资源:
资源有:
rhcs群集构建 scsi+iscsi+luci+ricci的web页面配置_职场_11
1 群集ip
rhcs群集构建 scsi+iscsi+luci+ricci的web页面配置_职场_12
2:群集gfs文件系统
rhcs群集构建 scsi+iscsi+luci+ricci的web页面配置_职场_13
3script
rhcs群集构建 scsi+iscsi+luci+ricci的web页面配置_rhcs群集构建_14
然后添加集群服务 service
rhcs群集构建 scsi+iscsi+luci+ricci的web页面配置_rhcs群集构建_15
把存在的3个资源都添加到服务中:
rhcs群集构建 scsi+iscsi+luci+ricci的web页面配置_rhcs群集构建_16
rhcs群集构建 scsi+iscsi+luci+ricci的web页面配置_休闲_17
提交后完成集群的配置。
然后在node主机上配置web服务器,可以通过手动切换node
rhcs群集构建 scsi+iscsi+luci+ricci的web页面配置_休闲_18
也可以通过模拟服务器系统坏掉,另一个node自动启动http服务。
yum  install  -y  httpd
安装完后不需要启动就行。
 
node主机上可以通过
clustat 静态察看集群节点的状态
rhcs群集构建 scsi+iscsi+luci+ricci的web页面配置_职场_19
也可以clustat  -i  1动态观看
 
也可以通过日志察看
rhcs群集构建 scsi+iscsi+luci+ricci的web页面配置_职场_20
也要注意观察宿主机上的共享磁盘挂载各个node上的情况
rhcs群集构建 scsi+iscsi+luci+ricci的web页面配置_rhcs群集构建_21
通过ip add  list 可以看到群集地址
rhcs群集构建 scsi+iscsi+luci+ricci的web页面配置_休闲_22
顺便说一下fence设备的用处:
 
配置fence device,这里使用的是虚拟机,所以类型是Virtual Machine Fencing,将名字取名为vmfence.如果使用的是真机,可选择对应的类型
(核心在于解决高可用集群在出现极端问题情况下的运行保障问题,在高可用集群的运行过程中,有时候会检测到某个节点功能不正常,比如在两台高可用服务器间的心跳线突然出现故障,这时一般高可用集群技术将由于链接故障而导致系统错判服务器宕机从而导致资源的抢夺,为解决这一问题就必须通过集群主动判断及检测发现问题并将其从集群中删除以保证集群的稳定运行,Fence技术的应用可以有效的实现这一功能
 
总结的可能不全,大家不懂得都可以来一起讨论。热烈欢迎,其实本人也才学linux不久。。。。