一. MHA简介


MHA(Master HA) 是一款开源的MySQL的高可用程序 , 它为mysql主从复制提供了自动化主故障转移功能 ; MHA能够在30秒内实现故障切换 , 最大可能保证数据的一致性 ; 当MHA通过监控到master节点时 , 会提升拥有最新数据的slave节点成为master节点 , 在此期间 , MHA会通过于其他从节点获取额外信息来避免一致性方面的问题 ; MHA还提供了master节点的在线切换功能 , 即按需切换master/slave节点 .


二. MHA服务


服务角色


MHA服务有两种角色(MAnager/Node)

MHA Manager(管理节点) : 通常单独部署在一台独立机器上管理多个master/slave集群 , 每个master/slave集群称为一个application , 用来管理统筹整个集群 .

MHA Node(数据节点) : 运行在每台mysql服务器上 , 通过监控具备解析和清理logs功能的脚本来加快故障转移 ; 主要是接收管理节点所发出指令的代理,代理需要运行在每一个 mysql 节点上。简单讲 node 就是用来收集从节点服务器上所生成的 bin-log 。对比打算提升为新的主节点之上的从节点的是否拥有并完成操作,如果没有发给新主节点在本地应用后提升为主节点 .


MHA提供的工具(命令)

Manager
masterha_check_ssh

MHA依赖的ssh环境监测工具

masterha_check_rep1MySQL主从复制检查工具
masterha_managerMHA检测主服务程序
masterha_check_statusMHA运行状态探测工具
masterha_master_monitorMySQL master 节点可用性检测工具
masterha_master_swich:master节点切换工具
masterha_conf_host添加或删除配置的节点
masterha_stop关闭MHA服务的工具
Node节点
save_binary_logs保存和复制master的二进制日志
apply_diff_relay_logs识别差异的中继日志事件并应用于其他slave
purge_relay_logs清除中继日志(不会阻塞SQL线程)


MHA工作原理

image.png

原理 : manager节点发现master节点出现故障后 , 会选举一个slave作为新的master来继续工作

(选举依据 : 从宕机的master保存二进制日志文件(bin-log) , 识别含有最新更新的slave , 应用差异的中继日志(relay-log)到其他slave , 应用从master保存的二进制日志文件 , 最后提升一个slave为新的master)


三. 部署搭建MHA实现数据库高可用


实验准备

主机名IP角色
Manager192.168.11.128用于监控管理(Manager)
master192.168.11.129主数据库(node)
slave1192.168.11.130从数据库(node)
slave2192.168.11.132从数据库(node)


所有节点进行初始化关闭防火墙 , selinux

[root@Manager ~]# systemctl stop firewalld
[root@Manager ~]# sed -ri '/^SELINUX=/cSELINUX=disabled' /etc/selinux/config


各节点编辑/etc/hosts配置文件 , 添加如下内容

192.168.11.128  Manager
192.168.11.129  master
192.168.11.130  slave1
192.168.11.132  slave2


配置3台数据库(master , slave1 , slave2)


3台主机均安装mariadb-server , 进行初始化

yum install -y mariadb-server mariadb
systemctl start mariadb
mysql_secure_installation         #初始化数据库

image.png

image.png


配置主节点master

[root@master ~]# vim /etc/my.cnf.d/server.cnf
    [mysqld]
    server-id = 1            //复制集群中的各节点的id均必须唯一
    log-bin = master-log        //开启二进制日志
    relay-log = relay-log        //开启中继日志
    skip_name_resolve           //关闭名称解析(非必须)
[root@master ~]# systemctl restart mariadb

image.png


配置两个slave节点

[root@slave1 ~]# vim /etc/my.cnf.d/server.cnf
    [mysqld]
    server-id = 2               //复制集群中的各节点的id均必须唯一;
    relay-log = relay-log       //开启中继日志
    log-bin = master-log        //开启二进制日志
    read_only = ON              //启用只读属性
    relay_log_purge = 0         //是否自动清空不再需要中继日志
    skip_name_resolve           //关闭名称解析(非必须)
    log_slave_updates = 1       //使得更新的数据写进二进制日志中
[root@slave1 ~]# systemctl restart mariadb

slave2(192.168.11.132)同理slave1(192.168.11.130) , 注意id要不一致

image.png

image.png


配置一主多从架构


master节点上:

# 授权同步数据账号
[root@master ~]# mysql
MariaDB [(none)]>grant replication slave,replication client on *.* to 'slave'@'192.168.11.%' identified by 'keer';
# 备份数据导出到从库
[root@master ~]# mysqldump -uroot -p'keer' --all-databases > `date +%F`-mysql-all.sql
[root@master ~]# scp *mysql-all.sql  192.168.11.130:/root
[root@master  ~]# scp  *mysql-all.sql    192.168.11.132:/root
[root@master ~]# mysql
MariaDB [(none)]> show master status;

image.png


slave节点上:

#导入数据
[root@slave1 ~]# mysql -uroot -p'123456' < *mysql-all.sql
[root@slave1 ~]# mysql -uroot -p'123456'
MariaDB [(none)]> change master to master_host='192.168.11.129', 
    -> master_user='slave', 
    -> master_password='keer',
    -> master_log_file='mysql-bin.000001',
    -> master_log_pos=665;
MariaDB [(none)]> start slave;
MariaDB [(none)]> show slave status\G;

image.png


在master上进行MHA配置授权

[root@master ~]# mysql
MariaDB [(none)]> grant all on *.* to 'mhaadmin'@'192.168.11.%' identified by 'mhapass';
MariaDB [(none)]> flush privileges;


准备ssh互通环境


MHA高度依赖ssh互通环境 , 即所有主机之间都能进行ssh免密登录 , 以实现远程控制和数据管理功能


在所有节点上操作

ssh-keygen
ssh-copy-id 192.168.11.128

完成上述操作后 , 在Manager上可以查看到如下内容

image.png

四台主机的公钥均在authorized_keys这个文件中 , 现在只需把这个文件发送另外3台机器即可实现ssh无密码互通了

[root@manager .ssh]# scp authorized_keys 192.168.11.129:~/.ssh/
[root@manager .ssh]# scp authorized_keys 192.168.11.130:~/.ssh/
[root@manager .ssh]# scp authorized_keys 192.168.11.132:~/.ssh/

发送完最好验证一下ssh免密登录


部署MHA


[root@manager ~]# yum install -y mha4mysql-node-0.56-0.el6.noarch.rpm 
[root@manager ~]# yum install -y mha4mysql-manager-0.56-0.el6.noarch.rpm

manager主机上需安装mha-manage和mha-node , 其余3台数据库主机安装MHA-node即可


定义MHA管理配置文件

为MHA专门创建一个管理用户 , 方便以后使用 , 在mysql的主节点上 , 三个节点自动同步

[root@manager ~]# mkdir /etc/mha_master
[root@manager ~]# vim /etc/mha_master/mha.cnf
#内容如下
[server default]          
user=mhaadmin              
password=mhapass           
manager_workdir=/etc/mha_master/app1       
manager_log=/etc/mha_master/manager.log     
remote_workdir=/mydata/mha_master/app1      
ssh_user=root            
repl_user=slave            
repl_password=keer    
ping_interval=1            
[server1]                  
hostname=192.168.11.129    
ssh_port=22                 
candidate_master=1         
[server2]
hostname=192.168.11.130
ssh_port=22
candidate_master=1
[server3]
hostname=192.168.11.132
ssh_port=22
candidate_master=1

image.png


配置好/etc/mha_master/mha.cnf文件后 , 对该文件进行检测


1.检测各节点ssh互信环境是否ok

[root@manager ~]# masterha_check_ssh -conf=/etc/mha_master/mha.cnf

image.png


2. 检查管理的mysql复制集群的连接配置参数是否ok

[root@manager ~]# masterha_check_repl -conf=/etc/mha_master/mha.cnf

image.png

排错 :

  1. 如果显示 MySQL Replication Health is NOT OK , 可能就是从节点上没有账号 , 因为这个架构任何一个节点都有可能成为主节点 , 可以在master上创建一个用于管理主从复制的账号 , 即/etc/mha_master/mha.cnf 配置文件中的 repl_user=slave

  2. 检查主从是否ok , show slave status\G


ssh互信和主从环境都检测ok后 , 启动MHA

[root@manager ~]# nohup masterha_manager -conf=/etc/mha_master/mha.cnf &> /etc/mha_master/manager.log &

image.png

停止MHA命令(masterha_stop -conf=/etc/mha_master/mha.cnf)


查看此时master节点状态

masterha_check_status -conf=/etc/mha_master/mha.cnf

image.png


测试MHA故障转移


在master节点上关闭mysql服务

[root@master ~]# yum -y install psmisc
[root@master ~]# killall mysqld


在manager节点查看日志

[root@manager ~]# tail -200 /etc/mha_master/manager.log

image.png


此时slave2(192.168.11.132)在节点上查看slave状态

image.png


此时manager 检测到192.168.11.129节点故障,而后自动执行故障转移, 将192.168.11.130提升为主节点。

注意,故障转移完成后,manager将会自动停止,此时使用 masterha_check_status 命令检测将会遇到错误提示, 如下所示:

image.png


提供新的从节点以修复集群


原有 master 节点故障后,需要重新准备好一个新的 MySQL 节点。基于来自于master 节点的备份恢复数据后,将其配置为新的 master 的从节点即可。注意,新加入的节点如果为新增节点,其 IP 地址要配置为原来 master 节点的 IP,否则,还需要修改 mha.cnf 中相应的 ip 地址。随后再次启动 manager ,并再次检测其状态。

我们就以刚刚关闭的那台主作为新添加的机器,来进行数据库的恢复:

原本的 slave1 已经成为了新的主机器,所以,我们对其进行完全备份,而后把备份的数据发送到我们新添加的机器上:

[root@slave1 ~]# mkdir /backup
[root@slave1 ~]# mysqldump --all-database > /backup/`date +%F`-myql-all.sql
[root@slave1 ~]# scp /backup/*mysql-all.sql 192.168.11.128:~/

在原master节点上进行数据恢复

[root@master ~]# systemctl start mariadb
[root@master ~]# mysql < 2019-4-27-mysql-all.sql


在新主即slave1节点上查看master状态信息

image.png


在master节点上配置主从

MariaDB [(none)]> change master to master_host='192.168.11.130',  master_user='slave',  master_password='keer', master_log_file='master-log.000002', master_log_pos=483333;
MariaDB [(none)]> start slave;
MariaDB [(none)]> show slave status\G;

image.png


再次在manager节点启动MHA

[root@manager ~]# masterha_manager -conf=/etc/mha_master/mha.cnf > /etc/mha_master/manager.log 2>&1 &

启动成功后查看master节点状态

[root@manager ~]# masterha_check_status -conf=/etc/mha_master/mha.cnf

image.png


  到此部署结束!!