问题描述

MySQL 基于 keepalived 实现主备切换,业务 A 和业务 B (其实 A 和 B 上跑的业务是相同的

)同时使用 MySQL 做数据库查询。通过重启 keepalived 服务来测试 MySQL 主备切换后,能够为业务提供正常的服务。


问题现象


测试人员发现 MySQL 主从切换之后,与业务 A 相关的 TCP 连接信息已经变更为新 TCP 连接,而与业务 B 相关的 TCP 连接信息仍旧未变化。



具体环境如下


业务A:172.16.177.158


业务B:172.16.177.159



VIP:172.16.177.147


MySQL master:172.16.177.148


MySQL slave:172.16.177.149



keepalived 主备节点抢占vip keepalived主备切换失败_TCP




在业务正常运行状态下,业务A 通过 VIP 与 MySQL master(148)建立 6 条 TCP 连接(业务开发人员告知的),分别对应端口


43666、

43668、 43669、 43670、 43673、 43674。


当通过重启 148 机器上的 keepalived 服务来完成 VIP 切换,从而达成 MySQL 主备切换时,可以看到如下抓包信息:



如下为 158 上的 TCP 链接信息。


keepalived 主备节点抢占vip keepalived主备切换失败_数据库_02




keepalived 主备节点抢占vip keepalived主备切换失败_网络_03




可以看到,上面出现了 10 个 RST ……,呃,先不管为什么多出来 4 个吧。



下面看一下 148 (原 MySQL master)上来自 158 的连接信息。




keepalived 主备节点抢占vip keepalived主备切换失败_网络_04


keepalived 主备节点抢占vip keepalived主备切换失败_网络_05



      从上面两个截图中,只能看到有两条 TCP 链路上出现了新的请求,并且因为重启了 keepalived 的原因,出现了 TCP 的重发。这两条 TCP 链路对应的端口分别为:

43673、43669。

这里重发请求的端口与 158 上的抓包中显示的一致。



再看一下 149 (原 MySQL slave)上来自 158 的连接信息。



keepalived 主备节点抢占vip keepalived主备切换失败_python_06


keepalived 主备节点抢占vip keepalived主备切换失败_python_07


keepalived 主备节点抢占vip keepalived主备切换失败_数据库_08




可以看到这里也出现了 10 条 TCP 链路被 RST 。与上面的 10 条 TCP 链接是对应的。


综上,整个过程可以描述为:


  • 最开始 158 与 148 建立了6条 OCS 业务的 TCP 连接;
  • 在重启 keepalived 的时候,恰好使用端口 43673 和 43669 的 TCP 连接正在信令交互,而此时正处于 VIP 147 从 148 向 149 漂移的过程之中,此时这两条 TCP 链路上的请求会因为得不到任何回应而触发重传;
  • 当 VIP 成功绑定到 149 上后,上述两条 TCP 链路上的重传请求会被 RST,而当其他 TCP 链路上有新的请求时,才会被 RST。被 RST 后,OSC 会重新建立 TCP 连接。

下面单独看下每条 TCP 链路的状况:


端口 43673 的 TCP 链路。



keepalived 主备节点抢占vip keepalived主备切换失败_链路_09


端口为 43669 的 TCP 链路。

keepalived 主备节点抢占vip keepalived主备切换失败_网络_10


端口为 43666 的 TCP 链路。


keepalived 主备节点抢占vip keepalived主备切换失败_python_11


端口为 43674 的 TCP 链路。


端口为 43670 的 TCP 链路。

keepalived 主备节点抢占vip keepalived主备切换失败_python_12


端口为 43668 的 TCP 链路。


keepalived 主备节点抢占vip keepalived主备切换失败_数据库_13


端口为 43671 的 TCP 链路。


keepalived 主备节点抢占vip keepalived主备切换失败_python_14


端口为 43665 的 TCP 链路。


keepalived 主备节点抢占vip keepalived主备切换失败_链路_15


端口为 43672 的 TCP 链路。


keepalived 主备节点抢占vip keepalived主备切换失败_TCP_16


端口为 43667 的 TCP 链路。


keepalived 主备节点抢占vip keepalived主备切换失败_python_17




上述现象在对于 159 上的业务来说也是这样,不再重复说明。


总结:

      上述问题的出现值得思考的地方有,通过重启 keepalived 来促使 MySQL 主备切换这种方式对于实际应用场景是否有意义?!如果实际情况中真的出现类似于 keepalived 重启导致的 MySQL 主从切换,那么由此导致的主从不一致将如何解决 ?!业务程序通过某种保活机制触发对当前 TCP 链路是否处于“半打开”状态的检测时间间隔多少比较合适?MySQL 上的 wait_timeout 设置多少比较合适!?


      真正让人感到不安的是,仅通过重启 keepalived 来进行主备切换,无论是 MySQL 侧还是业务侧,居然都不会收到 TCP 的 FIN 或 RST ,而只会在业务层面有“动作”时才能发现 TCP 链路的问题,这种现象对类似 MySQL 这种服务来说必然会造成一些问题。