Nginx+keepalived 高可用双机热备(主从模式/双主模式)

基础介绍


负载均衡技术对于一个网站尤其是大型网站的web服务器集群来说是至关重要的!做好负载均衡架构,可以实现故障转移和高可用环境,避免单点故障,保证网站健康持续运行。


    关于负载均衡介绍,可以参考:linux负载均衡总结性说明(四层负载/七层负载)


由于业务扩展,网站的访问量不断加大,负载越来越高。现需要在web前端放置nginx负载均衡,同时结合keepalived对前端nginx实现HA高可用。


1: nginx进程 基于Master+Slave(worker)多进程模型,自身具有非常稳定的子进程管理功能。


在Master进程分配模式下,Master进程永远不进行业务处理,只是进行任务分发,从而达到Master进程的存活高可靠性,Slave(worker)进程所有的业务信号都 由主进程发出,Slave(worker)进程所有的超时任务都会被Master中止,属于非阻塞式任务模型。


2: Keepalived 是Linux下面实现VRRP备份路由的高可靠性运行件。基于Keepalived设计的服务模式能够真正做到主服务器和备份服务器故障时IP瞬间无缝交接。二者结合,可以构架出比较稳定的软件LB方案。


    Keepalived介绍:

    Keepalived是一个基于VRRP协议来实现的服务高可用方案,可以利用其来避免IP单点故障,类似的工具还有heartbeat、corosync、pacemaker。但是它一般不会单独出现,而是与其它负载均衡技术(如lvs、haproxy、nginx)一起工作来达到集群的高可用。


keepalived可以认为是VRRP协议在Linux上的实现,主要有三个模块,分别是core、check和vrrp。

core模块为keepalived的核心,负责主进程的启动、维护以及全局配置文件的加载和解析。

check负责健康检查,包括常见的各种检查方式。

vrrp模块是来实现VRRP协议的。


    VRRP协议:

    VRRP全称 Virtual Router Redundancy Protocol,即 虚拟路由冗余协议。可以认为它是实现路由器高可用的容错协议,即将N台提供相同功能的路由器组成一个路由器组(RouterGroup),这个组里面有一个master和多个backup,但在外界看来就像一台一样,构成虚拟路由器,拥有一个虚拟IP(vip,也就是路由器所在局域网内其他机器的默认路由),占有这个IP的master实际负责ARP相应和转发IP数据包,组中的其它路由器作为备份的角色处于待命状态。master会发组播消息,当backup在超时时间内收不到vrrp包时就认为master宕掉了,这时就需要根据VRRP的优先级来选举一个backup当master,保证路由器的高可用。


在VRRP协议实现里,虚拟路由器使用 00-00-5E-00-01-XX 作为虚拟MAC地址,XX就是唯一的 VRID (VirtualRouter IDentifier),这个地址同一时间只有一个物理路由器占用。在虚拟路由器里面的物理路由器组里面通过多播IP地址224.0.0.18 来定时发送通告消息。每个Router都有一个 1-255 之间的优先级别,级别最高的(highest priority)将成为主控(master)路由器。通过降低master的优先权可以让处于backup状态的路由器抢占(pro-empt)主路由器的状态,两个backup优先级相同的IP地址较大者为master,接管虚拟IP。


这里写图片描述


nginx 双机高可用一般是通过虚拟IP(飘移IP)方法来实现的,基于Linux/Unix的IP别名技术。


双机高可用方法目前分为两种:


1)Nginx+keepalived 双机主从模式:即前端使用两台服务器,一台主服务器和一台热备服务器,正常情况下,主服务器绑定一个公网虚拟IP,提供负载均衡服务,热备服务器处于空闲状态;当主服务器发生故障时,热备服务器接管主服务器的公网虚拟IP,提供负载均衡服务;但是热备服务器在主机器不出现故障的时候,永远处于浪费状态,对于服务器不多的网站,该方案不经济实惠。


2)Nginx+keepalived 双机主主模式:即前端使用两台负载均衡服务器,互为主备,且都处于活动状态,同时各自绑定一个公网虚拟IP,提供负载均衡服务;当其中一台发生故障时,另一台接管发生故障服务器的公网虚拟IP(这时由非故障机器一台负担所有的请求)。这种方案,经济实惠,非常适合于当前架构环境。


今天在此分享下,Nginx+keepalived 实现高可用负载均衡的两种模式:

一:Nginx+keepalived 双机 主从模式


1.环境介绍

这里写图片描述


操作系统:centos6.8  64位

centos6-1       192.168.139.130         nginx+keepalived-master

centos6-2       192.168.139.129         nginx+keepalived-backup

VIP:            192.168.139.200       //负载均衡器上配置的域名都解析到这个VIP上




2.环境安装


在安装nginx和keepalive服务(master和backup两台服务器上的安装操作完全一样)


安装依赖,关闭selinux(记得重启)


    临时关闭:


    [root@localhost ~]# getenforce Enforcing


    [root@localhost ~]# setenforce 0

    [root@localhost ~]# getenforce

    Permissive


    永久关闭:


    [root@localhost ~]# vim /etc/sysconfig/selinux


    SELINUX=enforcing 改为 SELINUX=disabled


    重启服务reboot


[root@centos6-1 ~]# yum -y install gcc pcre-devel zlib-devel openssl-devel

[root@centos6-1 ~]# service iptables stop




下载最新安装包


[root@centos6-1 ~]# cd /usr/local/src/

[root@centos6-1 src]# wget https://nginx.org/download/nginx-1.9.9.tar.gz

[root@centos6-1 src]# wget http://www.keepalived.org/software/keepalived-2.0.7.tar.gz




安装nginx


[root@centos6-1 src]# tar -zxvf nginx-1.9.9.tar.gz

[root@centos6-1 src]# cd nginx-1.9.9

[root@centos6-1 nginx-1.9.9]# useradd www -M -s /sbin/nologin

[root@centos6-1 nginx-1.9.9]# vim auto/cc/gcc



小插曲 注:

1.添加www用户,其中 -M参数表示不添加用户家目录,-s参数表示指定shell类型

2. vim auto/cc/gcc 文件,将这句“#CFLAGS="$CFLAGS -g“”注释掉 取消Debug编译模式 大概在179行

这里写图片描述


继续安装nginx



[root@centos6-1 nginx-1.9.9]#  ./configure --prefix=/usr/local/nginx --user=www --group=www --with-http_ssl_module --with-http_flv_module --with-http_stub_status_module --with-http_gzip_static_module --with-pcre

[root@centos6-1 nginx-1.9.9]# make && make install




安装keepalived


[root@centos6-1 nginx-1.9.9]# cd ..

[root@centos6-1 src]# ll

total 1728

-rw-r--r--. 1 root root 873480 Aug 23 23:18 keepalived-2.0.7.tar.gz

drwxr-xr-x. 9 1001 1001   4096 Aug 28 18:26 nginx-1.9.9

-rw-r--r--. 1 root root 887908 Dec  9  2015 nginx-1.9.9.tar.gz

[root@centos6-1 src]# tar -zxvf keepalived-2.0.7.tar.gz

[root@centos6-1 src]# cd keepalived-2.0.7

[root@centos6-1 keepalived-2.0.7]# ./configure




    小插曲 注:

    这里写图片描述

    编译提示警告如上,解决如下:


[root@centos6-1 keepalived-2.0.7]# yum -y install libnl libnl-devel

[root@centos6-1 keepalived-2.0.7]# yum install -y libnfnetlink-devel


继续安装 keepalived,这里更换版本为keepalived-1.3.2.tar.gz, 再次编译


    小插曲: 在keepalived-2.0.7版本,无论是编译,还是make

    都会报错,如下,因此更换版本。估计是keepalived-1.4.5直接跳到2.0版本改动的问题

    这里写图片描述


 [root@centos6-1 src]#  wget http://www.keepalived.org/software/keepalived-1.3.2.tar.gz

 [root@centos6-1 src]# tar -zxvf keepalived-1.3.2.tar.gz

 [root@centos6-1 src]# cd keepalived-1.3.2

 [root@centos6-1 keepalived-1.3.2]# ./configure

 [root@centos6-1 keepalived-1.3.2]# make && make install

 [root@centos6-1 keepalived-1.3.2]# cp /usr/local/src/keepalived-1.3.2/keepalived/etc/init.d/keepalived /etc/rc.d/init.d/

 [root@centos6-1 keepalived-1.3.2]# cp /usr/local/etc/sysconfig/keepalived /etc/sysconfig/

 [root@centos6-1 keepalived-1.3.2]# mkdir /etc/keepalived

 [root@centos6-1 keepalived-1.3.2]# cp /usr/local/etc/keepalived/keepalived.conf /etc/keepalived/

 [root@centos6-1 keepalived-1.3.2]# cp /usr/local/sbin/keepalived /usr/sbin/

 #将nginx和keepalive服务加入开机启动服务

 [root@centos6-1 keepalived-1.3.2]# echo "/usr/local/nginx/sbin/nginx" >> /etc/rc.local

 [root@centos6-1 keepalived-1.3.2]# echo "/etc/init.d/keepalived start" >> /etc/rc.local



3.配置Nginx服务

master和backup两台服务器的nginx的配置完全一样。主要是配置/usr/local/nginx/conf/nginx.conf的http,当然也可以配置vhost虚拟主机目录,然后配置vhost下的比如LB.conf文件。


其中:


    多域名指向是通过虚拟主机(配置http下面的server)实现;

    同一域名的不同虚拟目录通过每个server下面的不同location实现;

    到后端的服务器在vhost/LB.conf下面配置upstream,然后在server或location中通过proxy_pass引用


要实现前面规划的接入方式,LB.conf的配置如下(添加proxy_cache_path和proxy_temp_path这两行,表示打开nginx的缓存功能):


[root@centos6-1 conf]# vim /usr/local/nginx/conf/nginx.conf

user  www;

worker_processes  8;


#error_log  logs/error.log;

#error_log  logs/error.log  notice;

#error_log  logs/error.log  info;


#pid        logs/nginx.pid;


events {

    worker_connections  65535;

}


http {

    include       mime.types;

    default_type  application/octet-stream;

    charset utf-8;


    ######

    ## set access log format

    ######

    log_format  main  '$http_x_forwarded_for $remote_addr $remote_user [$time_local] "$request" '

                      '$status $body_bytes_sent "$http_referer" '

                      '"$http_user_agent" "$http_cookie" $host $request_time';

    #######

    ## http setting

    #######

    sendfile       on;

    tcp_nopush     on;

    tcp_nodelay    on;

    keepalive_timeout  65;

    #便于测试,缓存功能先取消

    #proxy_cache_path /var/www/cache levels=1:2 keys_zone=mycache:20m max_size=2048m inactive=60m;

    #proxy_temp_path /var/www/cache/tmp;


    fastcgi_connect_timeout 3000;

    fastcgi_send_timeout 3000;

    fastcgi_read_timeout 3000;

    fastcgi_buffer_size 256k;

    fastcgi_buffers 8 256k;

    fastcgi_busy_buffers_size 256k;

    fastcgi_temp_file_write_size 256k;

    fastcgi_intercept_errors on;


    client_header_timeout 600s;

    client_body_timeout 600s;

   # client_max_body_size 50m;

    client_max_body_size 100m;               #允许客户端请求的最大单个文件字节数

    client_body_buffer_size 256k;            #缓冲区代理缓冲请求的最大字节数,可以理解为先保存到本地再传给用户


    gzip  on;

    gzip_min_length  1k;

    gzip_buffers     4 16k;

    gzip_http_version 1.1;

    gzip_comp_level 9;

    gzip_types       text/plain application/x-javascript text/css application/xml text/javascript application/x-httpd-php;

    gzip_vary on;


    ## includes vhosts

    include vhosts/*.conf;

}




[root@centos6-1 conf]# mkdir /usr/local/nginx/conf/vhosts

[root@centos6-1 conf]# mkdir /var/www/cache

[root@centos6-1 conf]# ulimit 65535

[root@centos6-1 conf]# cd vhosts/

[root@centos6-1 vhosts]# vim LB.conf

upstream LB-WWW {

      ip_hash;

      server 192.168.139.129:8080 max_fails=3 fail_timeout=30s;     

      #max_fails = 3 为允许失败的次数,默认值为1

      server 192.168.139.130:8080 max_fails=3 fail_timeout=30s;     

      #fail_timeout = 30s 当max_fails次失败后,暂停将请求分发到该后端服务器的时间

    }


  server {

      listen      80;

      server_name dev.hanginx.com;


      access_log  /usr/local/nginx/logs/dev-access.log;

      error_log  /usr/local/nginx/logs/dev-error.log;

      location / {

         proxy_pass http://LB-WWW;

         proxy_redirect off ;

         proxy_set_header Host $host;

         proxy_set_header X-Real-IP $remote_addr;

         proxy_set_header REMOTE-HOST $remote_addr;

         proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;

         proxy_connect_timeout 300;   #跟后端服务器连接超时时间,发起握手等候响应时间

         proxy_send_timeout 300;      #后端服务器回传时间,就是在规定时间内后端服务器必须传完所有数据

         proxy_read_timeout 600;      #连接成功后等待后端服务器的响应时间,已经进入后端的排队之中等候处理

         proxy_buffer_size 256k;      #代理请求缓冲区,会保存用户的头信息以供nginx进行处理

         proxy_buffers 4 256k;        #同上,告诉nginx保存单个用几个buffer最大用多少空间

         proxy_busy_buffers_size 256k;      #如果系统很忙时候可以申请最大的proxy_buffers

         proxy_temp_file_write_size 256k;   #proxy缓存临时文件的大小

         proxy_next_upstream error timeout invalid_header http_500 http_503 http_404;

         proxy_max_temp_file_size 128m;

       # proxy_cache mycache;        

         proxy_cache_valid 200 302 60m;

         proxy_cache_valid 404 1m;

        }

    }



    验证方法(保证从负载均衡器本机到后端真实服务器之间能正常通信):


    1)首先在本机用IP访问上面LB.cong中配置的各个后端真实服务器的url

    2)然后在本机用域名和路径访问上面LB.cong中配置的各个后端真实服务器的域名/虚拟路径


由于是内网演示,因此暂时只用IP访问后端web


[root@centos6-1 bin]# curl http://192.168.139.130:8080

<!DOCTYPE html>

<html>

<head>

<meta charset="UTF-8">

<title>master 130</title>

</head>

<body>

master 130

</body>

</html>


[root@centos6-1 bin]# curl http://192.168.139.129:8080

<!DOCTYPE html>

<html>

<head>

<meta charset="UTF-8">

<title>backup 129</title>

</head>

<body>

backup 129

</body>

</html>




4.配置keepalived服务


注:

4.1.master-130负载机上的keepalived配置(sendmail部署可以参考:linux下sendmail邮件系统安装操作记录)

当然,sendmail 不安装也可以,不影响我们的主从模式。


[root@centos6-1 keepalived]# pwd

/etc/keepalived

[root@centos6-1 keepalived]# cp keepalived.conf keepalived.conf.bak


[root@centos6-1 keepalived]# vim keepalived.conf

! Configuration File for keepalived          #全局定义


global_defs {

   notification_email {   #指定keepalived在发生事件时(比如切换)发送通知邮件的邮箱

     xiaochong@then.com   #设置报警邮件地址,可以设置多个,每行一个。 需开启本机的sendmail服务

     109971736883@qq.com

   }

   notification_email_from xiaochong@then.com  #keepalived在发生诸如切换操作时需要发送email通知地址

   smtp_server 127.0.0.1                        #指定发送email的smtp服务器

   smtp_connect_timeout 30                      #设置连接smtp server的超时时间

   router_id HAmaster-130   #运行keepalived的机器的一个标识,通常可设为hostname。故障发生时,发邮件时显示在邮件主题中的信息。

}


vrrp_script chk_http_port {      #检测nginx服务是否在运行。有很多方式,比如进程,用脚本检测等等

    script "/opt/chk_nginx.sh"   #这里通过脚本监测

    interval 2                   #脚本执行间隔,每2s检测一次

    weight -5                    #脚本结果导致的优先级变更,检测失败(脚本返回非0)则优先级 -5

    fall 2                    #检测连续2次失败才算确定是真失败。会用weight减少优先级(1-255之间)

    rise 1                    #检测1次成功就算成功。但不修改优先级

}


vrrp_instance VI_1 {    #keepalived在同一virtual_router_id中priority(0-255)最大的会成为master,也就是接管VIP,当priority最大的主机发生故障后次priority将会接管

    state MASTER    #指定keepalived的角色,MASTER表示此主机是主服务器,BACKUP表示此主机是备用服务器。注意这里的state指定instance(Initial)的初始状态,就是说在配置好后,这台服务器的初始状态就是这里指定的,但这里指定的不算,还是得要通过竞选通过优先级来确定。如果这里设置为MASTER,但如若他的优先级不及另外一台,那么这台在发送通告时,会发送自己的优先级,另外一台发现优先级不如自己的高,那么他会就回抢占为MASTER

    interface eth0          #指定HA监测网络的接口。实例绑定的网卡,因为在配置虚拟IP的时候必须是在已有的网卡上添加的

    mcast_src_ip 192.168.139.130  # 发送多播数据包时的源IP地址,这里注意了,这里实际上就是在哪个地址上发送VRRP通告,这个非常重要,一定要选择稳定的网卡端口来发送,这里相当于heartbeat的心跳端口,如果没有设置那么就用默认的绑定的网卡的IP,也就是interface指定的IP地址

    virtual_router_id 51         #虚拟路由标识,这个标识是一个数字,同一个vrrp实例使用唯一的标识。即同一vrrp_instance下,MASTER和BACKUP必须是一致的

    priority 101                 #定义优先级,数字越大,优先级越高,在同一个vrrp_instance下,MASTER的优先级必须大于BACKUP的优先级

    advert_int 1                 #设定MASTER与BACKUP负载均衡器之间同步检查的时间间隔,单位是秒

    authentication {             #设置验证类型和密码。主从必须一样

        auth_type PASS           #设置vrrp验证类型,主要有PASS和AH两种

        auth_pass 1111           #设置vrrp验证密码,在同一个vrrp_instance下,MASTER与BACKUP必须使用相同的密码才能正常通信

    }

    virtual_ipaddress {          #VRRP HA 虚拟地址 如果有多个VIP,继续换行填写

        192.168.139.200

    }


track_script {                      #执行监控的服务。注意这个设置不能紧挨着写在vrrp_script配置块的后面(实验中碰过的坑),否则nginx监控失效!!

   chk_http_port                    #引用VRRP脚本,即在 vrrp_script 部分指定的名字。定期运行它们来改变优先级,并最终引发主备切换。

}

}




4.2.backup-129负载机上的keepalived配置


[root@centos6-2 keepalived]# pwd

/etc/keepalived

[root@centos6-2 keepalived]# cp keepalived.conf keepalived.conf.bak


[root@centos6-2 keepalived]# vim keepalived.conf

! Configuration File for keepalived    


global_defs {

notification_email {                

xiaochong@then.com                     

10997173638883@qq.com

}


notification_email_from xiaochong@then.com  

smtp_server 127.0.0.1                    

smtp_connect_timeout 30                 

router_id HAbackup-129                    

}


vrrp_script chk_http_port {         

    script "/opt/chk_nginx.sh"   

    interval 2                      

    weight -5                       

    fall 2                   

    rise 1                  

}


vrrp_instance VI_1 {            

    state BACKUP           

    interface eth0            

    mcast_src_ip 192.168.139.129  

    virtual_router_id 51        

    priority 99               

    advert_int 1               

    authentication {            

        auth_type PASS         

        auth_pass 1111          

    }

    virtual_ipaddress {        

        192.168.139.200

    }


track_script {                     

   chk_http_port                 

}


}




让keepalived监控Nginx的状态:


1)经过前面的配置,如果master主服务器的keepalived停止服务,backup从服务器会自动接管VIP对外服务;

一旦主服务器的keepalived恢复,会重新接管VIP。 但这并不是我们需要的,我们需要的是当Nginx停止服务的时候能够自动切换。

2)keepalived支持配置监控脚本,我们可以通过脚本监控Nginx的状态,如果状态不正常则进行一系列的操作,最终仍不能恢复Nginx则杀掉keepalived,使得从服务器能够接管服务。


如何监控NginX的状态:


最简单的做法是监控Nginx进程,更靠谱的做法是检查NginX端口,最靠谱的做法是检查多个url能否获取到页面。


    注意,这里要提示一下keepalived.conf中vrrp_script配置区的script一般有2种写法:


    1)通过脚本执行的返回结果,改变优先级,keepalived继续发送通告消息,backup比较优先级再决定。这是直接监控Nginx进程的方式。

    2)脚本里面检测到异常,直接关闭keepalived进程,backup机器接收不到advertisement会抢占IP。这是检查NginX端口的方式。


上文script配置部分,”killall -0 nginx”属于第1种情况,”/opt/chk_nginx.sh” 属于第2种情况。


个人更倾向于通过shell脚本判断,但有异常时exit 1,正常退出exit 0,然后keepalived根据动态调整的 vrrp_instance 优先级选举决定是否抢占VIP:

如果脚本执行结果为0,并且weight配置的值大于0,则优先级相应的增加

如果脚本执行结果非0,并且weight配置的值小于0,则优先级相应的减少

其他情况,原本配置的优先级不变,即配置文件中priority对应的值。


提示:

优先级不会不断的提高或者降低,可以编写多个检测脚本并为每个检测脚本设置不同的weight(在配置中列出就行)

不管提高优先级还是降低优先级,最终优先级的范围在[1,254],不会出现优先级小于等于0或者优先级大于等于255的情况


在MASTER节点的 vrrp_instance 中 配置 nopreempt ,当它异常恢复后,即使它 prio 更高也不会抢占,这样可以避免正常情况下做无谓的切换,以上可以做到利用脚本检测业务进程的状态,并动态调整优先级从而实现主备切换。


    另外:在默认的keepalive.conf里面还有 virtual_server,real_server,这样的配置,我们这用不到,它是为lvs准备的。。。


如何尝试恢复服务


由于keepalived只检测本机和他机keepalived是否正常并实现VIP的漂移,而如果本机nginx出现故障不会则不会漂移VIP。

所以编写脚本来判断本机nginx是否正常,如果发现NginX不正常,重启之。等待3秒再次校验,仍然失败则不再尝试,关闭keepalived,其他主机此时会接管VIP;


根据上述策略很容易写出监控脚本。此脚本必须在keepalived服务运行的前提下才有效!如果在keepalived服务先关闭的情况下,那么nginx服务关闭后就不能实现自启动了。

该脚本检测ngnix的运行状态,并在nginx进程不存在时尝试重新启动ngnix,如果启动失败则停止keepalived,准备让其它机器接管。


监控脚本如下(master和backup都要有这个监控脚本):


[root@centos6-1 keepalived]# more /opt/chk_nginx.sh

#!/bin/bash

counter=$(ps -C nginx --no-heading|wc -l)

echo "$counter"

if [ "${counter}" = "0" ]; then

    /usr/local/nginx/sbin/nginx -c /usr/local/nginx/conf/nginx.conf

    sleep 2

    counter=$(ps -C nginx --no-heading|wc -l)

    if [ "${counter}" = "0" ]; then

        /etc/init.d/keepalived stop

    fi

fi


[root@centos6-1 keepalived]# chmod 755 /opt/chk_nginx.sh

[root@centos6-1 keepalived]# sh /opt/chk_nginx.sh


此架构需考虑的问题:


1)master没挂,则master占有vip且nginx运行在master上

2)master挂了,则slave抢占vip且在backup上运行nginx服务

3)如果master上的nginx服务挂了,则nginx会自动重启,重启失败后会自动关闭keepalived,这样vip资源也会转移到backup上。

4)检测后端服务器的健康状态

5)master和backup两边都开启nginx服务,无论master还是backup,当其中的一个keepalived服务停止后,vip都会漂移到keepalived服务还在的节点上;

如果要想使nginx服务挂了,vip也漂移到另一个节点,则必须用脚本或者在配置文件里面用shell命令来控制。(nginx服务宕停后会自动启动,启动失败后会强制关闭keepalived,从而致使vip资源漂移到另一台机器上)


最后验证(将配置的后端应用域名都解析到VIP地址上):

关闭主服务器上的keepalived或nginx,vip都会自动飘到从服务器上。


验证keepalived服务故障情况:

1)先后在master、slave服务器上启动nginx和keepalived,保证这两个服务都正常开启:


[root@centos6-1 keepalived]#  /usr/local/nginx/sbin/nginx -c /usr/local/nginx/conf/nginx.conf

[root@centos6-1 keepalived]#  /etc/init.d/keepalived start


[root@centos6-2 keepalived]#  /usr/local/nginx/sbin/nginx -c /usr/local/nginx/conf/nginx.conf

[root@centos6-2 keepalived]#  /etc/init.d/keepalived start



2)在主服务器上查看是否已经绑定了虚拟IP


先查看master,再看backup:

这里写图片描述

这里写图片描述


3)停止主服务器上的keepalived:


[root@centos6-1 keepalived]# /etc/init.d/keepalived stop

Stopping keepalived:                                       [  OK  ]

[root@centos6-1 keepalived]#  /etc/init.d/keepalived status

keepalived is stopped




4)然后在从服务器上查看,发现已经接管了VIP:


[root@centos6-2 bin]# ip addr

...

2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000

    link/ether 00:0c:29:7c:3e:39 brd ff:ff:ff:ff:ff:ff

    inet 192.168.139.129/24 brd 192.168.139.255 scope global eth0

    inet 192.168.139.200/32 scope global eth0

    inet6 fe80::20c:29ff:fe7c:3e39/64 scope link

       valid_lft forever preferred_lft forever




发现master的keepalived服务挂了后,vip资源自动漂移到slave上,并且网站正常访问,丝毫没有受到影响!




5)重新启动主服务器上的keepalived,发现主服务器又重新接管了VIP,此时slave机器上的VIP已经不在了。


[root@centos6-1 keepalived]#  /etc/init.d/keepalived start

Starting keepalived:                                       [  OK  ]

[root@centos6-1 keepalived]# ip addr

...

2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000

    link/ether 00:0c:29:ab:a3:5e brd ff:ff:ff:ff:ff:ff

    inet 192.168.139.130/24 brd 192.168.139.255 scope global eth0

    inet 192.168.139.200/32 scope global eth0

    inet6 fe80::20c:29ff:feab:a35e/64 scope link

       valid_lft forever preferred_lft forever




接着验证下nginx服务故障,看看keepalived监控nginx状态的脚本是否正常?


如下:手动关闭master机器上的nginx服务,最多2秒钟后就会自动起来(因为keepalive监控nginx状态的脚本执行间隔时间为2秒)。域名访问几乎不受影响!


最后可以查看两台服务器上的/var/log/messages,观察VRRP日志信息的vip漂移情况~~~~

二:Nginx+keepalived 双机 双主模式


1.只是需要更改下keepalived配置文件即可,增加新的VIP 192.168.139.201,192.168.139.200是130机器上主虚拟VIP,192.168.139.201是129 机器上主虚拟VIP.


配置文件实例如下:


130 的keepalived配置文件,在最后一行新加内容


vrrp_instance VI_2 {

    state BACKUP

    interface eth0

    virtual_router_id 52

    priority 90

    advert_int 1

    authentication {

        auth_type PASS

        auth_pass 1111

    }

    virtual_ipaddress {

        192.168.139.201

    }

}




129 的keepalived配置文件,在最后一行新加内容


vrrp_instance VI_2 {

    state MASTER

    interface eth0

    virtual_router_id 52

    priority 100

    advert_int 1

    authentication {

        auth_type PASS

        auth_pass 1111

    }

    virtual_ipaddress {

        192.168.139.201

    }

}




分别重新启动 2台 nginx和keepalived服务,分别在130 和129 查看新添加的虚拟IP


[root@centos6-1 keepalived]# ip addr

...

2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000

    link/ether 00:0c:29:ab:a3:5e brd ff:ff:ff:ff:ff:ff

    inet 192.168.139.130/24 brd 192.168.139.255 scope global eth0

    inet 192.168.139.200/32 scope global eth0

    inet6 fe80::20c:29ff:feab:a35e/64 scope link

       valid_lft forever preferred_lft forever



[root@centos6-2 keepalived]# ip addr

...

2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000

    link/ether 00:0c:29:7c:3e:39 brd ff:ff:ff:ff:ff:ff

    inet 192.168.139.129/24 brd 192.168.139.255 scope global eth0

    inet 192.168.139.201/32 scope global eth0

    inet6 fe80::20c:29ff:fe7c:3e39/64 scope link

       valid_lft forever preferred_lft forever




最后,模拟故障,检验结果。


附 129的keepalived的配置文件:


[root@centos6-2 bin]# more /etc/keepalived/keepalived.conf

! Configuration File for keepalived    


global_defs {

notification_email {                

xiaochong@then.com                     

109736383323@qq.com

}


notification_email_from xiaochong@then.com  

smtp_server 127.0.0.1                    

smtp_connect_timeout 30                 

router_id HAbackup-129                    

}


vrrp_script chk_http_port {         

    script "/opt/chk_nginx.sh"   

    interval 2                      

    weight -5                       

    fall 2                   

    rise 1                  

}


vrrp_instance VI_1 {            

    state BACKUP           

    interface eth0            

    mcast_src_ip 192.168.139.129  

    virtual_router_id 51        

    priority 99               

    advert_int 1               

    authentication {            

        auth_type PASS         

        auth_pass 1111          

    }

    virtual_ipaddress {        

        192.168.139.200

    }


track_script {                     

   chk_http_port                 

}


}


vrrp_instance VI_2 {

    state MASTER

    interface eth0

    virtual_router_id 52

    priority 100

    advert_int 1

    authentication {

        auth_type PASS

        auth_pass 1111

    }

    virtual_ipaddress {

        192.168.139.201

    }

}




    ​