目录

一、MHA概述

    1.1 MHA是什么

    1.2 MHA的组成

       1) MHA Node (数据节点)

       2) MHA Manager (管理节点)

    1.3 MHA的特点

二、MHA搭建准备

    2.1实验思路

    2.2实验准备

三、MHA搭建的步骤

    3.1配置主从复制

     1.初始化环境

     2.修改Master、Slave1、Slave2节点的主机名

     3.配置主从同步

     4.Master、Slave1、Slave2节点上都创建两个软链接

     5.登录数据库主从配置授权

     6.Master节点查看二进制文件和同步点、在Slave1、Slave2节点执行同步操作

     7.验证主从同步

    3.2安装MHA软件

     1.所有服务器上都安装MHA依赖的环境,首先安装epel源

     2.安装MHA软件包,先在所有服务器上必须先安装node 组件

     3.在MHA-manager节点上安装manager 组件

     4.在所有服务器上配置无密码认证

     5.在manager节点上操作

    3.3故障模拟

    3.4故障修复

 

 

 

 

 

一、MHA概述

1.1 MHA是什么

  • MHA(MasterHigh Availability)是一套优秀的MySQL高可用环境下故障切换和主从复制的软件。
  • MHA 的出现就是解决MySQL 单点的问题。
  • MySQL故障切换过程中,MHA能做到0-30秒内自动完成故障切换操作。
  • MHA能在故障切换的过程中最大程度上保证数据的一致性,以达到真正意义上的高可用。

1.2 MHA的组成

1) MHA Node (数据节点)

MHA Node 运行在每台 MySQL 服务器上。

2) MHA Manager (管理节点)

  • MHA Manager 可以单独部署在一台独立的机器上,管理多个 master-slave 集群;也可以部署在一台 slave 节点上。
  • MHA Manager 会定时探测集群中的 master 节点。当 master 出现故障时,它可以自动将最新数据的 slave 提升为新的 master, 然后将所有其他的 slave 重新指向新的 master。整个故障转移过程对应用程序完全透明。

 

1.3 MHA的特点

  • 自动故障切换过程中,MHA试图从宕机的主服务器上保存二进制日志,最大程度的保证数据不丢失;
  • 使用半同步复制,可以大大降低数据丢失的风险,如果只有一个slave已经收到了最新的二进制日志,MHA可以将最新的二进制日志应用于其他所有的slave服务器上,因此可以保证所有节点的数据一致性;
  • 目前MHA支持一主多从架构,最少三台服务,即一主两从.

 

二、MHA搭建准备

2.1实验思路

1.MHA架构 ①数据库安装 ②一主两从 ③MHA搭建

2.故障模拟 ①主库失效 ②备选主库成为主库 ③原故障主库恢复重新加入到MHA成为从库

 

2.2实验准备

MHA 部署架构 mha配置_perl

 

三、MHA搭建的步骤

3.1配置主从复制

1.初始化环境

1 #在四台服务器上初始化环境
2 systemctl stop firewalld
3 systemctl disable firewalld
4 setenforce 0

 

⒉修改manager、Master、Slave1、Slave2节点的主机名

1 #定义节点服务器名称
 2 hostnamectl set-hostname manager
 3 su
 4 
 5 hostnamectl set-hostname master
 6 su
 7 
 8 hostnamectl set-hostname slave1
 9 su
10 
11 hostnamectl set-hostname slave2
12 su

 

3.配置主从同步

1 #修改 Master、Slave1、Slave2 节点的 Mysql主配置文件/etc/my.cnf 
 2 ##Master 节点##
 3 vim /etc/my.cnf
 4 [mysqld]
 5 server-id = 1
 6 log_bin = master-bin
 7 log-slave-updates = true
 8  
 9 systemctl restart mysqld
10  
11 ##Slave1 节点##
12 vim /etc/my.cnf
13 server-id = 2                         #三台服务器的 server-id 不能一样
14 log_bin = master-bin
15 relay-log = relay-log-bin
16 relay-log-index = slave-relay-bin.index
17  
18 systemctl restart mysqld
19  
20 ###Slave2 节点##
21 vim /etc/my.cnf
22 server-id = 3 
23 log_bin = master-bin
24 relay-log = relay-log-bin
25 relay-log-index = slave-relay-bin.index
26  
27 systemctl restart mysqld

MHA 部署架构 mha配置_MHA 部署架构_02

MHA 部署架构 mha配置_mysql_03

MHA 部署架构 mha配置_MHA 部署架构_04

 

4.Master、Slave1、Slave2节点上都创建两个软链接

1 ln -s /usr/local/mysql/bin/mysql /usr/sbin
2 ln -s /usr/local/mysql/bin/mysqlbinlog /usr/sbin

MHA 部署架构 mha配置_mysql_05

MHA 部署架构 mha配置_mysql_06

MHA 部署架构 mha配置_服务器_07

 

5.登录数据库主从配置授权

1 #配置MySQL 一主两从
 2 #在所有数据库节点上授权两个用户,一个是从库同步使用,另一个是manager使用
 3 grant replication slave on *.* to 'myslave'@'192.168.239.%' identified by '123456'; 
 4 grant all privileges on *.* to 'mha'@'192.168.239.%' identified by 'manager';
 5 
 6 
 7 #下面三条授权理论上不用添加,但是实验环境通过MHA检查MySQL主从报错,
 8 报两个从库通过主机名连接不上主库,所以所有数据库都需要添加以下授权
 9 通过mha检查的时候,是通过主机名的形式进行监控,这种情况会容易报错
10 grant all privileges on *.* to 'mha'@'master' identified by 'manager';
11 grant all privileges on *.* to 'mha'@'slave1' identified by 'manager';
12 grant all privileges on *.* to 'mha'@'slave2' identified by 'manager';
13 
14 #所有从库开启只读功能(不会对超级管理员super生效,普通用户)
15 set global read_only=1;
16 
17 flush privileges;

MHA 部署架构 mha配置_MHA 部署架构_08

MHA 部署架构 mha配置_mysql_09

MHA 部署架构 mha配置_MHA 部署架构_10

 

6.Master节点查看二进制文件和同步点、在Slave1、Slave2节点执行同步操作

###在master上###
show master status;
 
###在slave1、slave2节点执行同步操作##
change master to master_host='192.168.239.3',master_user='myslave',master_password='123456',master_log_file='master-bin.000001',master_log_pos=1747;
start slave;
show slave status\G;

MHA 部署架构 mha配置_服务器_11

MHA 部署架构 mha配置_mysql_12

MHA 部署架构 mha配置_mysql_13

 

7.验证主从同步

1 ##在主master上创建库、表并插入数据##
2 create database kgc;
3 use kgc;
4 create table info (id int(10),name varchar(40));
5 insert into info values(1,'zhangsan');
6 select * from kgc.info;
7  
8 ##在slave1、slave2上验证##
9 select * from kgc.info;

MHA 部署架构 mha配置_服务器_14

MHA 部署架构 mha配置_mysql_15

MHA 部署架构 mha配置_perl_16

 

3.2安装MHA软件

1.所有服务器上都安装MHA依赖的环境,首先安装epel源

1 #在所有服务器上安装MHA依赖环境,首先安装epel源,只有安装了源 perl才会有
 2 #安装epel源,并且不进行gph检查
 3 yum install epel-release --nogpgcheck -y
 4 
 5 #perl针对于mysql数据库
 6 #从配置文件中提拿其中的值
 7 #log-日志
 8 #多线程管理
 9 #扩展工具CBuilder  MakeMaker
10 #cpan perl中的数据库
11 yum install -y perl-DBD-MySQL \
12 perl-Config-Tiny \
13 perl-Log-Dispatch \
14 perl-Parallel-ForkManager \
15 perl-ExtUtils-CBuilder \
16 perl-ExtUtils-MakeMaker \
17 perl-CPAN

MHA 部署架构 mha配置_perl_17

MHA 部署架构 mha配置_perl_18

MHA 部署架构 mha配置_mysql_19

MHA 部署架构 mha配置_mysql_20

 

2.安装MHA软件包,先在所有服务器上必须先安装node 组件

  • 对于每个操作系统版本不一样,这里 CentOS7.4 必须选择 0.57 版本。
  • 在所有服务器上必须先安装 node 组件,最后在 MHA-manager 节点上安装 manager 组件,因为 manager 依赖 node 组件。
1 #同步阿里云时间服务器
 2 ntpdate ntp.aliyun.com
 3 
 4 ##将需要的包下载到/opt下##
 5  
 6 ##每台服务器上解压安装node组件##
 7 cd /opt
 8 tar zxf mha4mysql-node-0.57.tar.gz
 9 cd mha4mysql-node-0.57
10 perl Makefile.PL
11 make && make install

MHA 部署架构 mha配置_mysql_21

MHA 部署架构 mha配置_perl_22

 

MHA 部署架构 mha配置_mysql_23

MHA 部署架构 mha配置_MHA 部署架构_24

 

MHA 部署架构 mha配置_MHA 部署架构_25

MHA 部署架构 mha配置_服务器_26

 

MHA 部署架构 mha配置_MHA 部署架构_27

MHA 部署架构 mha配置_MHA 部署架构_28

 

3.在MHA-manager节点上安装manager 组件

1 tar zxf mha4mysql-manager-0.57.tar.gz 
2 cd mha4mysql-manager-0.57/
3 perl Makefile.PL
4 make && make install

MHA 部署架构 mha配置_MHA 部署架构_29

 

1 cd /usr/local/bin/
 2 #manager 组件安装后在/usr/local/bin 下面会生成几个工具,主要包括以下几个:
 3 masterha_check_ssh 检查 MHA 的 SSH 配置状况
 4 masterha_check_repl 检查 MySQL 复制状况
 5 masterha_manger 启动 manager的脚本
 6 masterha_check_status 检测当前 MHA 运行状态
 7 masterha_master_monitor 检测 master 是否宕机
 8 masterha_master_switch 控制故障转移(自动或者 手动)
 9 masterha_conf_host 添加或删除配置的 server 信息
10 masterha_stop  关闭manager
11  
12 #node 组件安装后也会在/usr/local/bin 下面会生成几个脚本(这些工具通常由 MHAManager 的脚本触发,无需人为操作)主要如下:
13 save_binary_logs 保存和复制 master 的二进制日志
14 apply_diff_relay_logs 识别差异的中继日志事件并将其差异的事件应用于其他的 slave
15 filter_mysqlbinlog 去除不必要的 ROLLBACK 事件(MHA 已不再使用这个工具)
16 purge_relay_logs 清除中继日志(不会阻塞 SQL 线程)

MHA 部署架构 mha配置_mysql_30

 

4.在所有服务器上配置无密码认证

1 #一、在mannager上配置到所有数据库节点的无密码认证
 2 #一路回车
 3 ssh-keygen -t rsa
 4 ssh-copy-id 192.168.239.3
 5 ssh-copy-id 192.168.239.4
 6 ssh-copy-id 192.168.239.6
 7 ssh-copy-id 192.168.239.5
 8 
 9 #二、在master上配置到slave1和salve2的无密码认证
10 ssh-keygen -t rsa
11 ssh-copy-id 192.168.239.3
12 ssh-copy-id 192.168.239.4
13 ssh-copy-id 192.168.239.6
14 ssh-copy-id 192.168.239.5
15 
16 
17 #三、在slave1上配置到master和salve2的无密码认证
18 ssh-keygen -t rsa
19 ssh-copy-id 192.168.239.3
20 ssh-copy-id 192.168.239.4
21 ssh-copy-id 192.168.239.6
22 ssh-copy-id 192.168.239.5
23 
24 
25 #四、在slave2上配置到master和salve1的无密码认证
26 ssh-keygen -t rsa
27 ssh-copy-id 192.168.239.3
28 ssh-copy-id 192.168.239.4
29 ssh-copy-id 192.168.239.6
30 ssh-copy-id 192.168.239.5

MHA 部署架构 mha配置_MHA 部署架构_31

MHA 部署架构 mha配置_服务器_32

MHA 部署架构 mha配置_服务器_33

MHA 部署架构 mha配置_MHA 部署架构_34

 

5.在manager节点上操作

1 (1)##在 manager 节点上复制相关脚本到/usr/local/bin 目录
  2 cp -rp /opt/mha4mysql-manager-0.57/samples/scripts /usr/local/bin
  3  
  4 #拷贝后会有四个执行文件
  5 ll /usr/local/bin/scripts/
  6 master_ip_failover          #自动切换时 VIP 管理的脚本
  7 master_ip_online_change     #在线切换时 vip 的管理
  8 power_manager                 #故障发生后关闭主机的脚本
  9 send_report                 #因故障切换后发送报警的脚本
 10  
 11 (2)##复制上述的自动切换时 VIP 管理的脚本到 /usr/local/bin 目录,这里使用master_ip_failover脚本来管理 VIP 和故障切换
 12 cp /usr/local/bin/scripts/* /usr/local/bin
 13  
 14 (3)##修改master_ip_failover 全部删除,添加以下内容,修改相关参数
 15  
 16 #!/usr/bin/env perl
 17 use strict;
 18 use warnings FATAL => 'all';
 19  
 20 use Getopt::Long;
 21  
 22 my (
 23 $command, $ssh_user, $orig_master_host, $orig_master_ip,
 24 $orig_master_port, $new_master_host, $new_master_ip, $new_master_port
 25 );
 26 #############################添加内容部分#########################################
 27 my $vip = '192.168.59.188';                                    #指定vip的地址
 28 my $brdc = '192.168.59.255';                                #指定vip的广播地址
 29 my $ifdev = 'ens33';                                        #指定vip绑定的网卡
 30 my $key = '1';                                                #指定vip绑定的虚拟网卡序列号
 31 my $ssh_start_vip = "/sbin/ifconfig ens33:$key $vip";        #代表此变量值为ifconfig ens33:1 192.168.59.188
 32 my $ssh_stop_vip = "/sbin/ifconfig ens33:$key down";        #代表此变量值为ifconfig ens33:1 192.168.59.188 down
 33 my $exit_code = 0;                                            #指定退出状态码为0
 34 #my $ssh_start_vip = "/usr/sbin/ip addr add $vip/24 brd $brdc dev $ifdev label $ifdev:$key;/usr/sbin/arping -q -A -c 1 -I $ifdev $vip;iptables -F;";
 35 #my $ssh_stop_vip = "/usr/sbin/ip addr del $vip/24 dev $ifdev label $ifdev:$key";
 36 ##################################################################################
 37 GetOptions(
 38 'command=s' => \$command,
 39 'ssh_user=s' => \$ssh_user,
 40 'orig_master_host=s' => \$orig_master_host,
 41 'orig_master_ip=s' => \$orig_master_ip,
 42 'orig_master_port=i' => \$orig_master_port,
 43 'new_master_host=s' => \$new_master_host,
 44 'new_master_ip=s' => \$new_master_ip,
 45 'new_master_port=i' => \$new_master_port,
 46 );
 47  
 48 exit &main();
 49  
 50 sub main {
 51  
 52 print "\n\nIN SCRIPT TEST====$ssh_stop_vip==$ssh_start_vip===\n\n";
 53  
 54 if ( $command eq "stop" || $command eq "stopssh" ) {
 55  
 56 my $exit_code = 1;
 57 eval {
 58 print "Disabling the VIP on old master: $orig_master_host \n";
 59 &stop_vip();
 60 $exit_code = 0;
 61 };
 62 if ($@) {
 63 warn "Got Error: $@\n";
 64 exit $exit_code;
 65 }
 66 exit $exit_code;
 67 }
 68 elsif ( $command eq "start" ) {
 69  
 70 my $exit_code = 10;
 71 eval {
 72 print "Enabling the VIP - $vip on the new master - $new_master_host \n";
 73 &start_vip();
 74 $exit_code = 0;
 75 };
 76 if ($@) {
 77 warn $@;
 78 exit $exit_code;
 79 }
 80 exit $exit_code;
 81 }
 82 elsif ( $command eq "status" ) {
 83 print "Checking the Status of the script.. OK \n";
 84 exit 0;
 85 }
 86 else {
 87 &usage();
 88 exit 1;
 89 }
 90 }
 91 sub start_vip() {
 92 `ssh $ssh_user\@$new_master_host \" $ssh_start_vip \"`;
 93 }
 94 ## A simple system call that disable the VIP on the old_master
 95 sub stop_vip() {
 96 `ssh $ssh_user\@$orig_master_host \" $ssh_stop_vip \"`;
 97 }
 98  
 99 sub usage {
100 print
101 "Usage: master_ip_failover --command=start|stop|stopssh|status --orig_master_host=host --orig_master_ip=ip --orig_master_port=port --new_master_host=host --new_master_ip=ip --new_master_port=port\n";
102 }
103  
104 #删除注释
105 :2,87 s/^#//
106  
107 (4)##创建 MHA 软件目录并拷贝配置文件,这里使用app1.cnf配置文件来管理 mysql 节点服务器
108  
109 #创建 MHA 软件目录并拷贝配置文件
110 cd /opt/mha4mysql-manager-0.57/samples/conf/
111 ls
112 mkdir /etc/masterha
113 cp app1.cnf /etc/masterha/
114  
115  
116 #修改app1.cnf配置文件,删除原文所有内容,添加下面的
117 vim /etc/masterha/app1.cnf
118 [server default]
119 manager_workdir=/var/log/masterha/app1
120 master_binlog_dir=/usr/local/mysql/data
121 manager_log=/var/log/masterha/app1/manager.log
122 manager_workdir=/var/log/masterha/app1
123 master_binlog_dir=/usr/local/mysql/data
124 master_ip_failover_script=/usr/local/bin/master_ip_failover
125 master_ip_online_change_script=/usr/local/bin/master_ip_online_change
126 password=manager
127 ping_interval=1
128 remote_workdir=/tmp
129 repl_password=123456
130 repl_user=myslave
131 secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.239.4 -s 192.168.239.6
132 shutdown_script=""
133 ssh_user=root
134 user=mha
135  
136 [server1]
137 hostname=192.168.239.3
138 port=3306
139  
140 [server2]
141 candidate_master=1
142 check_repl_delay=0
143 hostname=192.168.239.4
144 port=3306
145  
146 [server3]
147 hostname=192.168.239.6
148 port=3306
149  
150 (5)###在主节点开启虚拟IP
151 ifconfig  ens33:1 192.168.239.100/24
152  
153 (6)##在 manager 节点上测试 ssh 无密码认证,如果正常最后会输出 successfully。如下所示
154 masterha_check_ssh -conf=/etc/masterha/app1.cnf
155  
156 (7)##在 manager 节点上测试 mysql 主从连接情况,最后出现 MySQL Replication Health is OK 字样说明正常。如下所示。
157 masterha_check_repl -conf=/etc/masterha/app1.cnf
158  
159 (8)##在 manager 节点上启动 MHA
160 nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/masterha/app1/manager.log 2>&1 &
161  
162 (9)##查看 MHA 状态,可以看到当前的 master 是 Mysql1 节点。
163 masterha_check_status --conf=/etc/masterha/app1.cnf
164  
165 (10)查看 MHA 日志,也以看到当前的 master 是 192.168.239.3,如下所示。
166 cat /var/log/masterha/app1/manager.log | grep "current master"
167  
168 (11)##查看 Mysql1 的 VIP 地址 192.168.239.100 是否存在,这个 VIP 地址不会因为 manager 节点停止 MHA 服务而消失。
169 ifconfig
170  
171 //若要关闭 manager 服务,可以使用如下命令。
172 masterha_stop --conf=/etc/masterha/app1.cnf
173 或者可以直接采用 kill 进程 ID 的方式关闭。

MHA 部署架构 mha配置_MHA 部署架构_35

MHA 部署架构 mha配置_MHA 部署架构_36

MHA 部署架构 mha配置_perl_37

MHA 部署架构 mha配置_MHA 部署架构_38

 

解释配置如下:

1 [server default]
 2 manager_log=/var/log/masterha/app1/manager.log      #manager日志
 3 manager_workdir=/var/log/masterha/app1            #manager工作目录
 4 master_binlog_dir=/usr/local/mysql/data/         #master保存binlog的位置,这里的路径要与master里配置的binlog的路径一致,以便MHA能找到
 5 master_ip_failover_script=/usr/local/bin/master_ip_failover  #设置自动failover时候的切换脚本,也就是上面的那个脚本
 6 master_ip_online_change_script=/usr/local/bin/master_ip_online_change  #设置手动切换时候的切换脚本
 7 password=manager            #设置mysql中root用户的密码,这个密码是前文中创建监控用户的那个密码
 8 ping_interval=1                #设置监控主库,发送ping包的时间间隔,默认是3秒,尝试三次没有回应的时候自动进行failover
 9 remote_workdir=/tmp            #设置远端mysql在发生切换时binlog的保存位置
10 repl_password=123456           #设置复制用户的密码
11 repl_user=myslave            #设置复制用户的用户
12 report_script=/usr/local/send_report     #设置发生切换后发送的报警的脚本
13 secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.239.4 -s 192.168.239.6    #指定检查的从服务器IP地址
14 shutdown_script=""            #设置故障发生后关闭故障主机脚本(该脚本的主要作用是关闭主机防止发生脑裂,这里没有使用)
15 ssh_user=root                #设置ssh的登录用户名
16 user=mha                    #设置监控用户root
17  
18 [server1]
19 hostname=192.168.239.3
20 port=3306
21  
22 [server2]
23 hostname=192.168.239.4
24 port=3306
25 candidate_master=1
26 #设置为候选master,设置该参数以后,发生主从切换以后将会将此从库提升为主库,即使这个从库不是集群中最新的slave
27  
28 check_repl_delay=0
29 #默认情况下如果一个slave落后master 超过100M的 relay logs的话,MHA将不会选择该slave作为一个新的master, 因为对于这个slave的恢复需要花费很长时间;通过设置check_repl_delay=0,MHA触发切换在选择一个新的master的时候将会忽略复制延时,这个参数对于设置了candidate_master=1的主机非常有用,因为这个候选主在切换的过程中一定是新的master
30  
31 [server3]
32 hostname=192.168.239.6
33 port=3306

 

MHA 部署架构 mha配置_mysql_39

MHA 部署架构 mha配置_mysql_40

MHA 部署架构 mha配置_MHA 部署架构_41

MHA 部署架构 mha配置_服务器_42

 

MHA 部署架构 mha配置_MHA 部署架构_43

MHA 部署架构 mha配置_mysql_44

MHA 部署架构 mha配置_MHA 部署架构_45

MHA 部署架构 mha配置_mysql_46

MHA 部署架构 mha配置_mysql_47

MHA 部署架构 mha配置_mysql_48

 

3.3故障模拟

1 #在 manager 节点上监控观察日志记录
 2 tail -f /var/log/masterha/app1/manager.log
 3  
 4 #在 Master 节点 Mysql1 上停止mysql服务
 5 systemctl stop mysqld
 6 或
 7 pkill -9 mysql
 8  
 9 #在slave1,slave2上查看,正常自动切换一次后,MHA 进程会退出。HMA 会自动修改 app1.cnf 文件内容,将宕机的 mysql1 节点删除。查看 mysql2 是否接管 VIP
10 ifconfig
11  
12  
13 故障切换备选主库的算法:
14 1.一般判断从库的是从(position/GTID)判断优劣,数据有差异,最接近于master的slave,成为备选主。
15 2.数据一致的情况下,按照配置文件顺序,选择备选主库。
16 3.设定有权重(candidate_master=1),按照权重强制指定备选主。
17 (1)默认情况下如果一个slave落后master 100M的relay logs的话,即使有权重,也会失效。
18 (2)如果check_repl_delay=0的话,即使落后很多日志,也强制选择其为备选主。

MHA 部署架构 mha配置_服务器_49

MHA 部署架构 mha配置_mysql_50

MHA 部署架构 mha配置_MHA 部署架构_51

MHA 部署架构 mha配置_MHA 部署架构_52

 

3.4故障修复

1.#修复mysql1
systemctl restart mysqld
 
2.#修复主从
#在现主库服务器 slave1 查看二进制文件和同步点
show master status;
#在原主库服务器 master 执行同步操作
change master to master_host='192.168.239.4',master_user='myslave',master_password='123456',master_log_file='master-bin.000005',master_log_pos=154;
start slave;
show slave status\G;
 
3.#在 manager 节点上修改配置文件app1.cnf(再把这个记录添加进去,因为它检测掉失效时候会自动消失)
vi /etc/masterha/app1.cnf
....
secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.239.3 -s 192.168.239.6
....
[server1]
hostname=192.168.239.4
port=3306
 
[server2]
candidate_master=1
check_repl_delay=0
hostname=192.168.239.3
port=3306
 
[server3]
hostname=192.168.239.6
port=3306
 
4.#在 manager 节点上启动 MHA
nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/masterha/app1/manager.log 2>&1 &

MHA 部署架构 mha配置_MHA 部署架构_53

MHA 部署架构 mha配置_MHA 部署架构_54

MHA 部署架构 mha配置_服务器_55

MHA 部署架构 mha配置_mysql_56