MongoDB复制集是一个带有故障转移的主从集群。是从现有的主从模式演变而来,增加了自动故障转移和节点成员自动恢复。MongoDB复制集模式中没有固定的主结点,在启动后,多个服务节点间将自动选举产生一个主结点。该主结点被称为primary,一个或多个从结点被称为secondaries。primary结点基本上就是master结点,不同之处在于primary结点在不同时间可能是不同的服务器。如果当前的主结点失效了,复制集中的其余结点将会试图选出一个新的主结点。
MongoDB提供了两种复制部署方案:主从复制和副本集。两种方式共同点是只在一个主节点上进行写操作,然后写入的数据会异步的同步到所有的从节点上。但主从复制有明显的缺陷:当主节点出现故障停电或者死机等情况,整个MongoDB服务集群就不能正常工作了,需要人工的处理这种情况。而副本集是具有自动故障恢复功能的主从复制。所以一般都用副本集。
1、思路:
当副本集的总可投票数为偶数时,可能出现无法选举出主节的情况。2个节点组成副本集是不合理的,因为这样的副本集不具备故障切换能能力:
·当 SECONDARY节点挂掉,剩下一个 PRIMARY,此时副本集运行不会出现问题,但不具备副本集的功能了,相当于单实例 Mongodb服务
·当 PRIMARY节点挂掉,此时副本集只剩下一个 SECONDARY,它只有1票,不超过总节点数的半数,不会成功选举自己为 PRIMARY节点。会错误提示。
因此我们有两种方案,
一是设置 MONGODB集群的节点数量为奇数。
二是当Mongodb集的节点数量为偶数时,适当增加仲裁节点,增加集群的稳定性。
所以尝试部署副本集的可行方案是:3个数据节点或2个数据节点+1个仲裁节点
在一个MongoDB复制集集群中,各个服务器有以下几种状态:
- Primary 主节点,一个复制集有且仅有一台服务器处于Primary状态,只有主节点才对外提供读写服务。如果主节点挂掉,复制集将投票选出一个备节点成为新的主节点。
- Secondary 备用节点,复制集允许有多台Secondary,每个备用节点的数据与主节点的数据是完全同步的。Recovering 恢复中,当复制集中某台服务器挂掉或者掉线后数据无法同步,重新恢复服务后从其他成员复制数据,这时就处于恢复过程,数据同步后,该节点又回到备用状态。
- Arbiter 仲裁节点,该类节点可以不用单独存在,如果配置为仲裁节点,就主要负责在复本集中监控其他节点状态,投票选出主节点。该节点将不会用于存放数据。如果没有仲裁节点,那么投票工作将由所有节点共同进行。
- Down 无效节点,当服务器挂掉或掉线时就会处于该状态。复制集的从节点读请求,也是在各个Driver层设置slaveOk的值来实现的。
如上介绍所知,mongodb中的复制可以在多台服务器中同步数据。复制提供了冗余和增加了数据的高可用性,防止单个节点易丢失数据的可能性,也可以用来进行读写分离提高客户端操作性能。复制集中各节点的mongodb实例有相同的数据集副本。主节点可以接收客户端所有写操作记录到日志中,从库复制主库的操作日志记录应用到其数据库中。一个客户端只能有一个主节点,如果主节点不可用(10秒内无法连接),复制集中将选一个成员节点作为主节点。
三台mongodb节点:一主一备一仲裁,这样,主节点挂了后,通过仲裁机制将primary自动切换到备机上!
如果上面的三台mongodb节点:一主两备,没有仲裁节点,那么主节点挂了后,primary会自动切换到其余两台备节点中的一台上!
2. 部署
1)服务器信息
sign-mongo01.wangshibo.cn 172.16.51.216 Primary
sign-mongo02.wangshibo.cn 172.16.51.217 Secondary
sign-mongo03.wangshibo.cn 172.16.51.218 Arbiter
2)在3台服务器文件hosts文件中都添加以下3行
[root@sign-mongo01 ~]# cat /etc/hosts
172.16.51.216 sign-mongo01.wangshibo.cn
172.16.51.217 sign-mongo02.wangshibo.cn
172.16.51.218 sign-mongo03.wangshibo.cn
3)安装部署mongodb(三台机器都安装)
下载地址:https://www.mongodb.org/dl/linux/x86_64-rhel62
在3台机器上都操作一遍
[app@sign-mongo01 software]$ ls
mongodb-linux-x86_64-rhel62-v3.2-latest.tgz
[app@sign-mongo01 software]$ tar -zvxf mongodb-linux-x86_64-rhel62-v3.2-latest.tgz
[app@sign-mongo01 software]$ mv mongodb-linux-x86_64-rhel62-3.2.17-34-g4c1bae566c /data/mongodb
[app@sign-mongo01 software]$ cd /data/mongodb/
mkdir data -- 存放数据的目录
mkdir log -- 存放日志的目录
mkdir -p keyfile -- 存放秘钥的目录
先创建帐号哦, 再开启认证
使用keyFile模式启动数据库服务,默认会启用--auth认证模式。一般需要先在单例模式下创建好用户,再使用--keyFile模式启动,认证后访问数据库。(否则没权限)
use admin
db.createUser(
{
user:"zcyroot",
pwd:"zcyroot",
roles:[{role:"root",db:"admin"}]
}
)
配置文件:
主和副的 机器一样的配置, 除了 bind_ip=172.16.51.216 变化一下
[app@sign-mongo01 mongodb]$ vim mongodb.conf
pidfilepath=/data/mongodb/log/mongod.pid
logpath=/data/mongodb/log/mongod.log
dbpath=/data/mongodb/data
logappend=true
bind_ip=172.16.51.216
port=27017
fork=true
replSet=rs0 -- 表示复制集名称:rs0
仲裁节点配置:
[app@sign-mongo03 ~]$ vim /data/mongodb/mongodb.conf
pidfilepath=/data/mongodb/log/mongod.pid
logpath=/data/mongodb/log/mongod.log
dbpath=/data/mongodb/arbiter
logappend=false
bind_ip=172.16.51.218
port=27019
fork=true
replSet=rs0
或者
启动主,备,仲裁服务器的mongodb
3台机器上执行
[app@sign-mongo01 ~]$ /data/mongodb/bin/mongod --config /data/mongodb/mongodb.conf
about to fork child process, waiting until server is ready for connections.
forked process: 7317
child process started successfully, parent exiting
[app@sign-mongo01 mongodb]$ ps -ef|grep mongodb
app 7317 1 0 21:38 ? 00:00:00 /data/mongodb/bin/mongod --config /data/mongodb/mongodb.conf
app 7342 7254 0 21:38 pts/1 00:00:00 grep mongodb
4)初始化主节点,副本集,仲裁
启动三台MongoDB服务后,开始把他们初始化为副本集。在想要设置成primary(主节点)的机器上运行客户端mongo。例如第1台机器上:
> mongo 172.16.51.216:27017
> rs.initiate({_id: "rs0",members: [{ _id: 0 , host: "sign-mongo01.wangshibo.cn:27017" }]})
-- 初始化复制集:(集合为:"rs0" ;第一个成员为:"sign-mongo01.wangshibo.cn:27017"
//执行成功后,接着回车,显示这个节点为Primary主节点
rs0:PRIMARY>
接着添加另1个成员:
rs0:PRIMARY> rs.add("sign-mongo02.wangshibo.cn:27018")
查看副本集配置 rs.conf() / 查看成员信息rs.status() (或者使用 db.isMaster()
rs0:PRIMARY> rs.status()
{
"set" : "rs0",
"date" : ISODate("2017-11-22T13:55:28.446Z"),
"myState" : 1,
"term" : NumberLong(1),
"heartbeatIntervalMillis" : NumberLong(2000),
"members" : [
{
"_id" : 0,
"name" : "sign-mongo01.wangshibo.cn:27017",
"health" : 1,
"state" : 1,
"stateStr" : "PRIMARY",
"uptime" : 1031,
"optime" : {
"ts" : Timestamp(1511358895, 1),
"t" : NumberLong(1)
},
"optimeDate" : ISODate("2017-11-22T13:54:55Z"),
"infoMessage" : "could not find member to sync from",
"electionTime" : Timestamp(1511358843, 2),
"electionDate" : ISODate("2017-11-22T13:54:03Z"),
"configVersion" : 2,
"self" : true
},
{
"_id" : 1,
"name" : "sign-mongo02.wangshibo.cn:27018",
"health" : 1,
"state" : 2,
"stateStr" : "SECONDARY",
"uptime" : 32,
"optime" : {
"ts" : Timestamp(1511358895, 1),
"t" : NumberLong(1)
},
"optimeDate" : ISODate("2017-11-22T13:54:55Z"),
"lastHeartbeat" : ISODate("2017-11-22T13:55:27.684Z"),
"lastHeartbeatRecv" : ISODate("2017-11-22T13:55:27.827Z"),
"pingMs" : NumberLong(0),
"configVersion" : 2
}
],
"ok" : 1
}
详细说明如下:
"_id" : #集群中节点编号
"name" : #成员服务器名称及端口
"health" : #表示成员中的健康状态(0:down;1:up)
"state" : #为0~10,表示成员的当前状态
"stateStr" : #描述该成员是主库(PRIMARY)还是备库(SECONDARY)
"uptime" : #该成员在线时间(秒)
"optime" : #成员最后一次应用日志(oplog)的信息
"optimeDate" : #成员最后一次应用日志(oplog)的时间
"electionTime" : #当前primary从操作日志中选举信息
"electionDate" : #当前primary被选定为primary的日期
"configVersion" : #mongodb版本
"self" : #为true 表示当前节点
添加仲裁节点ARBITER
rs0:PRIMARY> rs.addArb("sign-mongo03.wangshibo.cn:27018")
初始化还可以用这种方式:
rs.initiate(
{
_id : <replicaSetName>,
members: [
{ _id : 0, host : "192.168.32.135:27017,priority:4" },
{ _id : 1, host : "192.168.32.137:27017,priority:2" },
{ _id : 2, host : "192.168.32.138:27017,arbiterOnly:true" }
]
}
)
5) 数据同步测试
在主库插入数据后,在从库的主机上登录发现数据是通过过来的
默认情况下SECONDARY节点不能读写,要设置slaveOK为true才行。集群中只能有一个Primary节点,只能在Primary写数据,不能在SECONDARY写数据
db.getMongo().setSlaveOk()或rs.slaveOk()
6) 故障切换测试
现在模拟主库不可用,将主节点服务停止:
在第1台机器执行db.shutdownServer()
通过rs.status 查看,发现主节点已经到第2台机器了
3. mongo支持密码
使用keyFile模式启动数据库服务,默认会启用--auth认证模式。一般需要先在单例模式下创建好用户,再使用--keyFile模式启动,认证后访问数据库。(否则没权限)
1) 生成密钥文件
主机中任何一台机器上执行:
openssl rand -base64 756 > /data/mongodb/testKeyFile.file
chmod 400 /data/mongodb/keyfile/testKeyFile.file
第一条命令是生成密钥文件,第二条命令是使用chmod更改文件权限,为文件所有者提供读权限
将密钥testKeyFile.file复制到集群中的每台机器的指定位置
一定要保证密钥文件一致。文件位置随便。但是为了方便查找,建议每台机器都放到一个固定的位置
2) 配置中增加
keyFile=/data/mongodb/testKeyFile.file
重启mongo 就可以
如果执行rs.status() 提示权限,就执行:
> use admin
>db.auth('zcyroot','zcyroot')
>
db.grantRolesToUser( "myadmin" , [ { role: "dbOwner", db: "admin" },{ "role": "clusterAdmin", "db": "admin" },
{ "role": "userAdminAnyDatabase", "db": "admin" },
{ "role": "dbAdminAnyDatabase", "db": "admin" },
{ role: "root", db: "admin" } ])
> rs.status() /rs.conf()