03rhcs集群基础应用


配置luci/ricci(图形界面,重点掌握)

配置环境

node1:192.168.1.151CentOS6.5

node2:192.168.1.152CentOS6.5

node3:192.168.1.153CentOS6.5

node3:192.168.1.154CentOS6.5

[root@node1 ~]# ansible ha -m shell -a 'service NetworkManager stop'

[root@node1 ~]# ansible ha -m shell -a 'chkconfig NetworkManager off'

[root@node1 ~]# ansible ha -m shell -a 'yum -y install httpd'


[root@node1 ~]# yum -y install ricci

[root@node1 ~]# service ricci start

[root@node1 ~]# netstat -tunlp

Active Internet connections (only servers)

Proto Recv-Q Send-Q Local Address               Foreign Address             State       PID/Program name   

tcp        0      0 0.0.0.0:111                 0.0.0.0:*                   LISTEN      1181/rpcbind        

tcp        0      0 0.0.0.0:22                  0.0.0.0:*                   LISTEN      1485/sshd           

tcp        0      0 127.0.0.1:631               0.0.0.0:*                   LISTEN      1372/cupsd          

tcp        0      0 127.0.0.1:25                0.0.0.0:*                   LISTEN      1561/master         

tcp        0      0 0.0.0.0:47549               0.0.0.0:*                   LISTEN      1310/rpc.statd      

tcp        0      0 :::111                      :::*                        LISTEN      1181/rpcbind        

tcp        0      0 :::22                       :::*                        LISTEN      1485/sshd           

tcp        0      0 ::1:631                     :::*                        LISTEN      1372/cupsd          

tcp        0      0 ::1:25                      :::*                        LISTEN      1561/master         

tcp        0      0 :::46746                    :::*                        LISTEN      1310/rpc.statd      

tcp        0      0 :::11111                    :::*                        LISTEN      28236/ricci         

udp        0      0 0.0.0.0:111                 0.0.0.0:*                               1181/rpcbind        

udp        0      0 0.0.0.0:631                 0.0.0.0:*                               1372/cupsd          

udp        0      0 0.0.0.0:638                 0.0.0.0:*                               1310/rpc.statd      

udp        0      0 0.0.0.0:56208               0.0.0.0:*                               1310/rpc.statd      

udp        0      0 0.0.0.0:932                 0.0.0.0:*                               1181/rpcbind        

udp        0      0 :::111                      :::*                                    1181/rpcbind        

udp        0      0 :::932                      :::*                                    1181/rpcbind        

udp        0      0 :::35625                    :::*                                    1310/rpc.statd      

[root@node2 ~]# yum -y install ricci && service ricci start

[root@node3 ~]# yum -y install ricci && service ricci start

[root@node1 ~]# ansible ha -m shell -a 'echo ricci:mageedu | chpasswd'

[root@node4 ~]# yum -y install luci

[root@node4 ~]# service luci start

Point your web browser to https://node4:8084 (or equivalent) to access luci

#可通过https://192.168.1.154:8084端口访问luci  


以下操作通过浏览器进行

1、登录luci

34补3-3 rhcs集群基础应用_rhcs

2、创建集群

34补3-3 rhcs集群基础应用_luci_02

34补3-3 rhcs集群基础应用_rhcs_03

备注:node结点的密码为ricci的密码,此处为mageedu,而不是root用户的登录密码


3、创建Fence Devices

依次选择“tcluster”、“Fence Devices”“Add”

34补3-3 rhcs集群基础应用_ricci_04

在出现的对话框中选择合适的配置,本次实验不作配置


4、创建Failover Domains(故障转移域)

依次选择“tcluster”、“Failover Domains”、“Add

34补3-3 rhcs集群基础应用_rhcs_05

34补3-3 rhcs集群基础应用_luci_06

34补3-3 rhcs集群基础应用_ricci_07


5、配置Resources

1IP Address

34补3-3 rhcs集群基础应用_rhcs_08

点击“Apply”


2)添加Script资源

34补3-3 rhcs集群基础应用_ricci_09

点击“Apply”

6、配置Service Groups

1)创建webservice group

34补3-3 rhcs集群基础应用_ricci_10

2)在webservice group中添加资源

添加之前定义的IP AddressScript资源

34补3-3 rhcs集群基础应用_ricci_11

34补3-3 rhcs集群基础应用_luci_12

3)启动webservice组资源

34补3-3 rhcs集群基础应用_rhcs_13

34补3-3 rhcs集群基础应用_ricci_14

发现服务正运行在node2结点


测试:

[root@node2 ~]# vim /var/www/html/index.html

<h1>node2</h1>

[root@node3 ~]# vim /var/www/html/index.html

<h1>node3</h1>

34补3-3 rhcs集群基础应用_ricci_15


测试1:转移运行结点至node3

34补3-3 rhcs集群基础应用_luci_16

34补3-3 rhcs集群基础应用_rhcs_17

34补3-3 rhcs集群基础应用_rhcs_18


配置cman/rgmanager(命令行界面,了解)

[root@node1 ~]# ansible ha -m shell -a 'service NetworkManager stop'

[root@node1 ~]# ansible ha -m shell -a 'chkconfig NetworkManager off'

#程序安装

[root@node1 ~]# yum -y install cman rgmanager

[root@node2 ~]# yum -y install cman rgmanager

[root@node3 ~]# yum -y install cman rgmanager

#创建集群

[root@node1 ~]# ccs_tool create tcluster

[root@node1 ~]# cd /etc/cluster/

[root@node1 cluster]# ls

cluster.conf  cman-notify.d

[root@node1 cluster]# vim cluster.conf 

[root@node1 cluster]# ccs_tool addfence meatware fence-manual

[root@node1 cluster]# ccs_tool lsfence

Name             Agent

meatware         fence-manual

[root@node1 cluster]# ccs_tool addnode -n 1 -f meatware node1

[root@node1 cluster]# ccs_tool addnode -n 2 -f meatware node2 

[root@node1 cluster]# ccs_tool addnode -n 3 -f meatware node3 

[root@node1 cluster]# ccs_tool lsnode


Cluster name: tcluster, config_version: 5


Nodename                        Votes Nodeid Fencetype

node1                              1    1    meatware

node2                              1    2    meatware

node3                              1    3    meatware

[root@node1 ~]# ansible ha -m copy -a 'src=/etc/cluster/cluster.conf dest=/etc/cluster/'

#启动cman

[root@node1 cluster]# service cman start

[root@node2 ~]# service cman start

[root@node3 ~]# service cman start

[root@node1 cluster]# clustat

Cluster Status for tcluster @ Fri Oct 14 10:25:14 2016

Member Status: Quorate


Member Name                              ID   Status

------ ----                              ---- ------

node1                                        1 Online, Local

node2                                        2 Online

node3                                        3 Online


[root@node1 cluster]# service rgmanager start

[root@node2 ~]# service rgmanager start

[root@node3 ~]# service rgmanager start

[root@node3 cluster]# cman_tool status

Version: 6.2.0

Config Version: 5

Cluster Name: tcluster

Cluster Id: 10646

Cluster Member: Yes

Cluster Generation: 16

Membership state: Cluster-Member

Nodes: 3

Expected votes: 3

Total votes: 3

Node votes: 1

Quorum: 2  

Active subsystems: 8

Flags: 

Ports Bound: 0 177  

Node name: node3

Node ID: 3

Multicast addresses: 239.192.41.191 

Node addresses: 192.168.1.153 


[root@node1 cluster]# cman_tool nodes

Node  Sts   Inc   Joined               Name

  1   M      8   2016-10-14 10:23:55  node1

  2   M     12   2016-10-14 10:24:04  node2

  3   M     16   2016-10-14 10:24:09  node3

  

[root@node1 cluster]# cman_tool services

fence domain

member count  3

victim count  0

victim now    0

master nodeid 1

wait state    none

members       1 2 3 


dlm lockspaces

name          rgmanager

id            0x5231f3eb

flags         0x00000000 

change        member 3 joined 1 remove 0 failed 0 seq 3,3

members       1 2 3


[root@node1 cluster]# service ricci start

[root@node2 cluster]# service ricci start

[root@node3 cluster]# service ricci start

[root@node4 ~]# yum -y install luci

[root@node1 cluster]# yum groupinfo "High availability"

Group: High Availability

Description: Infrastructure for highly available services and/or shared storage.

Mandatory Packages:

  cman

Default Packages:

  ccs

  omping

  rgmanager

Optional Packages:

  cluster-cim

  cluster-glue-libs-devel

  cluster-snmp

  clusterlib-devel

  corosynclib-devel

  fence-virtd-checkpoint

  foghorn

  libesmtp-devel

  openaislib-devel

  pacemaker

  pacemaker-doc

  pacemaker-libs-devel

  pcs

  python-repoze-what-quickstart

  resource-agents

  sbd

  

[root@node4 ~]# service luci start