DRBD+corosync+pacemaker实现MFS高可用
随着分布式、大数据的不断发展,很多时候大家会感觉大数据离自己很远,其实大数据就是我们身边。那我们心目中的大数据到底是什么样的呢,分布式、容错、大容量?
在我们运维中,最常见的文件存储系统大概就是NFS了,但是随着网站压力不断增加,NFS渐渐不能满足企业数据增长需求,有木有自动扩展、高效、部署、实施方便快捷的分布式存储供我们使用呢?那我们来看一下MFS基本可以满足我们的需求。
MogileFS是一种分布式文件存储系统。可支持文件自动备份的功能,提高可用性和高扩展性。MogileFS不支持对一个文件内部的随机或顺序读写,因此只适合做一部分应用,如图片服务,静态HTML服务、文件服务器等,这些应用在文件写入后基本上不需要对文件进行修改,但是可以生成一个新的文件覆盖原有文件。
分布式文件系统(Distributed File System)是指文件系统管理的物理存储资源不一定直接连接在本地节点上,而是通过计算机网络与节点相连,分布式文件系统的实际基于客户机/服务器模式。
目前常见的分布式文件系统有很多种,例如我之前一篇文章里面提到的Hadoop、FastDFS、Moosefs、PNFS(Parallel NFS)、Lustre、TFS、GFS、HDFS等等一系列。在众多的分布式文件系统解决方案中,MFS是搭建比较简单、使用起来也不需要过多的修改web程序,非常方便。那今天我们使用SHELL脚本来部署MFS。
Moosefs的优势
1) 通用文件系统,不需要修改上层应用就可以使用
2) 可以在线扩容,体系架构可伸缩性极强
3) 部署简单
4) 体系架构高可用,单独一台机器出问题不会影响整体性能
5) 文件对象高可用,可设置任意的文件冗余程度
6) 提供Windows回收站的功能
7) 提供netapp,emc,ibm等商业存储的snapshot特性
8) google filesystem的一个c实现
9) 提供web gui监控接口
10) 提高随机读或写的效率
11) 提高海量小文件的读写效率
MFS系统组成部分
1、元数据服务器:在整个体系中负责管理管理文件系统,目前MFS只支持一个元数据服务器master,这是一个单点故障,需要一个性能稳定的服务器来充当。希望今后MFS能支持多个master服务器,进一步提高系统的可靠性。
2、数据存储服务器:chunkserver,真正存储用户数据的服务器,存储文件时,首先把文件分成块,然后这些块在数据服务器chunkserver之间复制,数据服务器可以是多个,并且数量越多,可使用的"磁盘空间"越小,可靠性也越高。
3、客户端:使用MFS文件系统来存储和访问的主机称为MFS的客户端,成功挂接MFS文件系统以后,就可以像以前使用NFS一样共享这个虚拟性的存储了。
4.元数据日志服务器:负责备份master 服务器的变化日志文件,文件类型为changelog_ml.*.mfs ,以便于在master server 出问题的时候接替其进行工作。
一、实验环境
系统版本: centos7
软件源:阿里云
mfsmaster(node1) IP:192.168.163.180
mfsbackup(node2) IP:192.168.163.182
mfschunkserver_1(node3) IP:192.168.163.183
mfschunkserver_2(node4) IP:192.168.163.184
mfsclient(node5) IP:192.168.163.165
VIP:192.168.163.111
实验拓扑如下
二、实验过程
我们为了达到MFS服务的高可用,必须将mfsmaster编译安装在drbd资源上,所以,得先创建一个DRBD,创建DRBD的操作在之前提及过,就不再详细说明,下面是我的另一搭建DRBD的博文的链接:
接下来,就是MFS文件系统的搭建过程,由于MFS的包只有一个,各种服务的不同只需在编译安装的时候来定义,这就十分方便了。
先来安装mfsmaster
上传mfs软件包并解压
[root@node1 ~]# cd /usr/local/src/
[root@node1 src]# tar xf v3.0.96.tar.gz
在安装之前先创建一个 uid 和 gid 一致的用户 mfs,我的都是1002
[root@node1 ~]# id mfs
uid=1002(mfs) gid=1002(mfs) groups=1002(mfs)
挂载drbd,并在其上进行编译安装
[root@node1 ~]# mkdir /usr/local/mfs
[root@node1 ~]# chown mfs:mfs /usr/local/mfs
[root@node1 ~]# mount /dev/drbd1 /usr/local/mfs
[root@node1 ~]# cd /usr/local/src/moosefs-3.0.96/
[root@node1 moosefs-3.0.96]# ./configure --prefix=/usr/local/mfs --with-default-user=mfs --with-default-group=mfs --disable-mfschunkserver --disable-mfsmount
配置master
[root@node1 ~]# cd /usr/local/mfs/etc/mfs
都是sample文件,我们要命名成.cfg文件:
[root@node1 mfs]# cp mfsexports.cfg.sample mfsexports.cfg
[root@node1 mfs]# cp mfsmaster.cfg.sample mfsmaster.cfg
修改控制文件
vim mfsexports.cfg
* / rw,alldirs,maproot=0
* . rw
开启元数据文件默认是empty文件,需要我们手工打开
[root@node1 mfs]# cp /usr/local/mfs/var/mfs/metadata.mfs.empty /usr/local/mfs/var/mfs/metadata.mfs
启动master,由于需要结合corosync,我们需要做一个mfsmaster 的 systemd 启动脚本[root@node1 ~]# cat /etc/systemd/system/mfsmaster.service
[Unit] Description=mfs After=network.target [Service] Type=forking ExecStart=/usr/local/mfs/sbin/mfsmaster start ExecStop=/usr/local/mfs/sbin/mfsmaster stop PrivateTmp=true [Install] WantedBy=multi-user.target
=============================================================
安装mfsbackup,只需要创建文件夹以及启动脚本,uid与gid一致的用户mfs
[root@node2 ~]# id mfs
uid=1002(mfs) gid=1002(mfs) groups=1002(mfs)
[root@node2 ~]# mkdir /usr/local/mfs/
[root@node2 ~]# chown mfs:mfs /usr/local/mfs
[root@node2 ~]# cat /etc/systemd/system/mfsmaster.service
[Unit] Description=mfs After=network.target [Service] Type=forking ExecStart=/usr/local/mfs/sbin/mfsmaster start ExecStop=/usr/local/mfs/sbin/mfsmaster stop PrivateTmp=true [Install] WantedBy=multi-user.target
=============================================================
安装check servers
[root@node3 ~]# useradd mfs
[root@node3 ~]# yum install zlib-devel -y
[root@node3 ~]# cd /usr/local/src/
[root@node3 src]# tar zxvf v3.0.96.tar.gz
[root@node3 moosefs-3.0.96]# ./configure --prefix=/usr/local/mfs--with-default-user=mfs --with-default-group=mfs --disable-mfsmaster --disable-mfsmount
[root@node3 moosefs-3.0.96]# make && make install
配置checkserver
[root@node3 moosefs-3.0.96]# cd /usr/local/mfs/etc/mfs/
[root@node3 mfs]# mv mfschunkserver.cfg.sample mfschunkserver.cfg
[root@node3 mfs]# vim mfschunkserver.cfg
MASTER_HOST = 192.168.163.111 #这里指定的是VIP
配置共享出去的目录
[root@node3 mfs]# cp /usr/local/mfs/etc/mfs/mfshdd.cfg.sample /usr/local/mfs/etc/mfs/mfshdd.cfg
[root@node3 mfs]# vim /usr/local/mfs/etc/mfs/mfshdd.cfg
/mfsdata #在其中添加你要共享的目录
另一台check server也进行同样的配置
===========================================================
在客户端安装FUSE:
[root@node5 mfs]# lsmod|grep fuse
[root@node5 mfs]# yum install fuse fuse-devel
[root@node5 ~]# modprobe fuse
[root@node5 ~]# lsmod | grep fuse
fuse 87741 5
安装挂载客户端
[root@node5 ~]# yum install zlib-devel -y
[root@node5 ~]# useradd mfs
[root@node5 src]# tar -zxvf v3.0.96.tar.gz
[root@node5 src]# cd moosefs-3.0.96/
[root@node5 moosefs-3.0.96]# ./configure --prefix=/usr/local/mfs --with-default-user=mfs --with-default-group=mfs --disable-mfsmaster --disable-mfschunkserver --enable-mfsmount
[root@node5 moosefs-3.0.96]# make && make install
在客户端上挂载文件系统,先创建挂载目录
[root@node5 moosefs-3.0.96]# mkdir /mfsdata
[root@node5 moosefs-3.0.96]# chown -R mfs:mfs /mfsdata/
============================================================
接下来使用crm来管理,具体安装过程看我之前的博文
贴出我的configure配置
node 1: node1 \ attributes standby=off node 2: node2 \ attributes standby=off primitive mfs systemd:mfsmaster \ op monitor timeout=100 interval=30 \ op start timeout=100 interval=0 \ op stop timeout=100 interval=0 \ meta target-role=Started primitive mfs_drbd ocf:linbit:drbd \ params drbd_resource=mfs \ op monitor role=Master interval=10 timeout=20 \ op monitor role=Slave interval=20 timeout=20 \ op start timeout=240 interval=0 \ op stop timeout=100 interval=0 primitive mystore Filesystem \ params device="/dev/drbd1" directory="/usr/local/mfs" fstype=ext4 \ op start timeout=60 interval=0 \ op stop timeout=60 interval=0 \ meta target-role=Started primitive vip IPaddr \ params ip=192.168.163.111 \ meta target-role=Started ms ms_mfs_drbd mfs_drbd \ meta master-max=1 master-node-max=1 clone-max=2 clone-node-max=1 notify=true target-role=Started colocation mfs_with_mystore inf: mfs mystore order ms_mfs_drbd_after_mystore Mandatory: ms_mfs_drbd:promote mystore:start colocation ms_mfs_drbd_with_mystore inf: mystore ms_mfs_drbd order mystore_after_mfs Mandatory: mystore mfs colocation vip_with_mfs inf: vip mfs property cib-bootstrap-options: \ stonith-enabled=false \ have-watchdog=false \ dc-version=1.1.16-12.el7_4.4-94ff4df \ cluster-infrastructure=corosync \ cluster-name=mycluster
启动整个集群,查看状态
crm(live)# status Stack: corosync Current DC: node2 (version 1.1.16-12.el7_4.4-94ff4df) - partition with quorum Last updated: Fri Oct 27 06:26:24 2017 Last change: Fri Oct 27 06:24:20 2017 by root via crm_attribute on node2 2 nodes configured 5 resources configured Online: [ node1 node2 ] Full list of resources: Master/Slave Set: ms_mfs_drbd [mfs_drbd] Masters: [ node1 ] Slaves: [ node2 ] mystore (ocf::heartbeat:Filesystem): Started node1 mfs (systemd:mfsmaster): Started node1 vip (ocf::heartbeat:IPaddr): Started node1
=========================================================
三、验证实验
先来看看drbd有没有自动挂载
[root@node1 local]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/cl-root 17G 1.7G 16G 10% /
devtmpfs 902M 0 902M 0% /dev
tmpfs 912M 39M 874M 5% /dev/shm
tmpfs 912M 32M 881M 4% /run
tmpfs 912M 0 912M 0% /sys/fs/cgroup
/dev/sda1 1014M 185M 830M 19% /boot
tmpfs 183M 0 183M 0% /run/user/0
/dev/drbd1 4.8G 28M 4.6G 1% /usr/local/mfs
查看VIP
[root@node1 local]# ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN qlen 1
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: ens32: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
link/ether 00:0c:29:3a:22:fb brd ff:ff:ff:ff:ff:ff
inet 192.168.163.180/24 brd 192.168.163.255 scope global dynamic ens32
valid_lft 1461sec preferred_lft 1461sec
inet 192.168.163.111/24 brd 192.168.163.255 scope global secondary ens32
valid_lft forever preferred_lft forever
inet6 fe80::20c:29ff:fe3a:22fb/64 scope link
valid_lft forever preferred_lft forever
查看mfsmaster服务状态
[root@node1 local]# systemctl status mfsmaster
● mfsmaster.service - Cluster Controlled mfsmaster
Loaded: loaded (/etc/systemd/system/mfsmaster.service; enabled; vendor preset: disabled)
Drop-In: /run/systemd/system/mfsmaster.service.d
└─50-pacemaker.conf
Active: active (running) since Fri 2017-10-27 06:23:02 EDT; 6min ago
Process: 83567 ExecStart=/usr/local/mfs/sbin/mfsmaster start (code=exited, status=0/SUCCESS)
Main PID: 83569 (mfsmaster)
CGroup: /system.slice/mfsmaster.service
└─83569 /usr/local/mfs/sbin/mfsmaster start
在客户端进行挂载
[root@node5 ~]# mkdir /mfs_test
[root@node5 ~]# /usr/local/mfs/bin/mfsmount -H 192.168.163.111 /mfs_test
mfsmaster accepted connection with parameters: read-write,restricted_ip ; root mapped to root:root
查看挂载情况
[root@node5 ~]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/cl-root 17G 1.5G 16G 9% /
devtmpfs 901M 0 901M 0% /dev
tmpfs 912M 0 912M 0% /dev/shm
tmpfs 912M 20M 892M 3% /run
tmpfs 912M 0 912M 0% /sys/fs/cgroup
/dev/sda1 1014M 139M 876M 14% /boot
tmpfs 183M 0 183M 0% /run/user/0
192.168.163.111:9421 34G 3.4G 31G 10% /mfs_test
尝试写入数据
[root@localhost ~]# cd /mfs_test/
[root@localhost mfs_test]# echo "node1" > xhk1
[root@localhost mfs_test]# cat xhk1
node1
============================================================
接下来,模拟mfsmaster 故障,看看服务能否转移并正常运行
[root@node1 local]# crm
crm(live)# node standby
crm(live)# status
Stack: corosync
Current DC: node2 (version 1.1.16-12.el7_4.4-94ff4df) - partition with quorum
Last updated: Fri Oct 27 06:36:30 2017
Last change: Fri Oct 27 06:36:29 2017 by root via crm_attribute on node1
2 nodes configured
5 resources configured
Node node1: standby
Online: [ node2 ]
Full list of resources:
Master/Slave Set: ms_mfs_drbd [mfs_drbd]
Masters: [ node1 ]
Slaves: [ node2 ]
mystore(ocf::heartbeat:Filesystem):Started node1
mfs(systemd:mfsmaster):Started node1
vip(ocf::heartbeat:IPaddr):Stopped
再次查看
crm(live)# status
Stack: corosync
Current DC: node2 (version 1.1.16-12.el7_4.4-94ff4df) - partition with quorum
Last updated: Fri Oct 27 06:36:37 2017
Last change: Fri Oct 27 06:36:29 2017 by root via crm_attribute on node1
2 nodes configured
5 resources configured
Node node1: standby
Online: [ node2 ]
Full list of resources:
Master/Slave Set: ms_mfs_drbd [mfs_drbd]
Masters: [ node2 ]
Stopped: [ node1 ]
mystore(ocf::heartbeat:Filesystem):Started node2
mfs(systemd:mfsmaster):Started node2
vip(ocf::heartbeat:IPaddr):Started node2
可以看到,服务自动转移到node2上
接下来,在客户机查看挂载能不能用
[root@localhost mfs_test]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/cl-root 17G 1.5G 16G 9% /
devtmpfs 901M 0 901M 0% /dev
tmpfs 912M 0 912M 0% /dev/shm
tmpfs 912M 20M 892M 3% /run
tmpfs 912M 0 912M 0% /sys/fs/cgroup
/dev/sda1 1014M 139M 876M 14% /boot
tmpfs 183M 0 183M 0% /run/user/0
192.168.163.111:9421 34G 3.4G 31G 10% /mfs_test
[root@localhost mfs_test]# ls
xhk1
[root@localhost mfs_test]# cat xhk1
node1
[root@localhost mfs_test]# echo "node2" > xhk2
[root@localhost mfs_test]# cat xhk2
node2
正常使用,实验成功!!!!!!!!!!!
当那台故障机子已经修不了的情况下,我们则不得不加入一台新的机子,而新的机子的配置和环境并不和之前的完全一样,无法加入这个高可用集群。这时候,我们就需要对这些集群的配置和环境进行备份。这样,即使是坏掉的机子回不来,我们也可以导入配置文件,来使新的自己能够加入这个高可用集群。
==========================================================
排错过程
出现drbd Unknown
解决:重新初始化元数据
[root@node1 ~]# drbdadm create-md mfs
无法使用system来启动 mfsmaster 服务
解决:先使用编译时的启动脚本
[root@node1 ~]# /usr/local/mfs/sbin/mfs/mfsmaster -a
[root@node1 ~]# /usr/local/mfs/sbin/mfs/mfsmaster stop
[root@node1 ~]# system start mfsmaster