介绍:

mongodb副本集即客户端连接到整个副本集,不关心具体哪一台机器是否挂掉。主服务器负责整个副本集的读写,副本集定期同步数据备份,一旦主节点挂掉,副本节点就会选举一个新的主服务器,这一切对于应用服务器不需要关心

副本集中的副本节点在主节点挂掉后通过心跳机制检测到后,就会在集群内发起主节点的选举机制,自动选举一位新的主服务器

选举还有个前提条件,参与选举的节点数量必须大于副本集总节点数量的一半,如果已经小于一半了所有节点保持只读状态。因此,官方推荐我们的副本集机器数量至少为3个:[一个主节点,两个副本节点] 也可以为[一个主节点,一个副本节点,一个仲裁节点]

其中有一个仲裁节点,即当参与选举的节点无法选出主节点时仲裁节点充当仲裁的作用。仲裁节点不存储数据,只是仲裁。所以,我们的副本集可以设置为:1主+1从+1仲裁

副本同步主的数据的过程:

Primary节点写入数据,Secondary通过读取Primary的oplog得到复制信息,开始复制数据并且将复制信息写入到自己的oplog。如果某个操作失败,则备份节点停止从当前数据源复制数据。如果某个备份节点由于某些原因挂掉了,当重新启动后,就会自动从oplog的最后一个操作开始同步,同步完成后,将信息写入自己的oplog,由于复制操作是先复制数据,复制完成后再写入oplog,有可能相同的操作会同步两份,不过MongoDB在设计之初就考虑到这个问题,将oplog的同一个操作执行多次,与执行一次的效果是一样的。简单的说就是:

当Primary节点完成数据操作后,Secondary会做出一系列的动作保证数据的同步:
1:检查自己local库的oplog.rs集合找出最近的时间戳。
2:检查Primary节点local库oplog.rs集合,找出大于此时间戳的记录。
3:将找到的记录插入到自己的oplog.rs集合中,并执行这些操作 

副本集的同步和主从同步一样,都是异步同步的过程,不同的是副本集有个自动故障转移的功能。其原理是:slave端从primary端获取日志,然后在自己身上完全顺序的执行日志所记录的各种操作(该日志是不记录查询操作的),这个日志就是local数据 库中的oplog.rs表,默认在64位机器上这个表是比较大的,占磁盘大小的5%,oplog.rs的大小可以在启动参数中设 定:--oplogSize 1000,单位是M。

注意:在副本集的环境中,要是所有的Secondary都宕机了,只剩下Primary。最后Primary会变成Secondary,不能提供服务

搭建

环境说明

IP

角色

172.16.1.216

primary(主节点)

172.16.1.223

secondary(副本节点)

172.16.1.215

arbiterOnly(仲裁节点)

 

 

 

 

 

三台机器解压mongodb安装包

# curl -O https://fastdl.mongodb.org/linux/mongodb-linux-x86_64-amazon-3.4.6.tgz
# tar -zxvf mongodb-linux-x86_64-amazon-3.4.6.tgz
# mv mongodb-linux-x86_64-amazon-3.4.6/ /usr/local/mongodb

分别在三台机器上创建mongoDB的data,log以及配置目录

# cd /usr/local/mongodb
# mkdir -p data/db
# mkdir log
# touch log/mongod.log
# mkdir etc
# touch etc/mongod.conf

分别在三台机器上配置config文件

vim /usr/local/mongodb/etc/mongod.conf

dbpath = /usr/local/mongodb/data/db        # 指定数据库路径
logpath = /usr/local/mongodb/log/mongod.log          # 指定mongodb日志文件
logappend = true        # 使用追加的方式写日志
port = 27017               #设置端口号为27017
fork = true                   #设置以守护进程的方式启动mongod
replSet = timecash            #设置副本集的名字为myrs,同一副本集群的replSet名称必需相同

分别在三台机器上启动副本集

./usr/local/mongodb/bin/mongod -f /usr/local/mongodb/etc/mongod.conf    #指定以mongod.conf配置启动mongod

初始化副本集

登录任意一台机器的mongodb执行

./usr/local/mongodb/bin/mongo
>>>use admin
>>>config = {
"_id":"myrs",
"members":[
  {"_id":0,"host":"172.16.1.216:27017"},
  {"_id":1,"host":"172.16.1.223:27017"},
  {"_id":2,"host":"172.16.1.215:27017",arbiterOnly:true} #这个节点就是仲裁节点
]
}
>>>rs.initiate(config);   #初始化配置
{ "ok" : 1 }

查看集群节点

>>>rs.status();
{
    "set" : "timecash",
    "date" : ISODate("2018-03-08T08:29:32.268Z"),
    "myState" : 1,
    "term" : NumberLong(1),
    "heartbeatIntervalMillis" : NumberLong(2000),
    "optimes" : {
        "lastCommittedOpTime" : {
            "ts" : Timestamp(1520497764, 1),
            "t" : NumberLong(1)
        },
        "appliedOpTime" : {
            "ts" : Timestamp(1520497764, 1),
            "t" : NumberLong(1)
        },
        "durableOpTime" : {
            "ts" : Timestamp(1520497764, 1),
            "t" : NumberLong(1)
        }
    },
    "members" : [
        {
            "_id" : 0,
            "name" : "172.16.1.216:27017",
            "health" : 1,
            "state" : 1,
            "stateStr" : "PRIMARY",
            "uptime" : 788,
            "optime" : {
                "ts" : Timestamp(1520497764, 1),
                "t" : NumberLong(1)
            },
            "optimeDate" : ISODate("2018-03-08T08:29:24Z"),
            "electionTime" : Timestamp(1520497194, 1),
            "electionDate" : ISODate("2018-03-08T08:19:54Z"),
            "configVersion" : 1,
            "self" : true
        },
        {
            "_id" : 1,
            "name" : "172.16.1.223:27017",
            "health" : 1,
            "state" : 2,
            "stateStr" : "SECONDARY",
            "uptime" : 591,
            "optime" : {
                "ts" : Timestamp(1520497764, 1),
                "t" : NumberLong(1)
            },
            "optimeDurable" : {
                "ts" : Timestamp(1520497764, 1),
                "t" : NumberLong(1)
            },
            "optimeDate" : ISODate("2018-03-08T08:29:24Z"),
            "optimeDurableDate" : ISODate("2018-03-08T08:29:24Z"),
            "lastHeartbeat" : ISODate("2018-03-08T08:29:30.443Z"),
            "lastHeartbeatRecv" : ISODate("2018-03-08T08:29:30.680Z"),
            "pingMs" : NumberLong(0),
            "syncingTo" : "172.16.1.216:27017",
            "configVersion" : 1
        },
        {
            "_id" : 2,
            "name" : "172.16.1.215:27017",
            "health" : 1,
            "state" : 7,
            "stateStr" : "ARBITER",
            "uptime" : 591,
            "lastHeartbeat" : ISODate("2018-03-08T08:29:30.431Z"),
            "lastHeartbeatRecv" : ISODate("2018-03-08T08:29:27.927Z"),
            "pingMs" : NumberLong(0),
            "configVersion" : 1
        }
    ],
    "ok" : 1
}
#可以看出172.16.1.216是主节点,172.16.1.223是副本节点,172.16.1.215是仲裁节点

测试

1.测试副本集的数据复制功能

登录172.16.1.216主节点,用mongo登录到交互模式

./usr/local/mongodb/bin/mongo
timecash:PRIMARY> use test  #创建test数据库
timecash:PRIMARY> db.testdb.insert({"name":"alex"});       #插入数据

登录172.16.1.223副本节点,用mongo登录到交互模式

./usr/local/mongodb/bin/mongo

timecash:SECONDARY>use test
timecash:SECONDARY>show collections
[thread1] Error: listCollections failed: {
"ok" : 0,
"errmsg" : "not master and slaveOk=false",
"code" : 13435,
"codeName" : "NotMasterNoSlaveOk"
}
#可以看到报错了
因为mongodb默认是从主节点读写数据的,副本节点上不允许读,需要设置副本节点可以读
timecash:SECONDARY>db.getMongo().setSlaveOk();  
#此时副本节点就可以读取数据了
timecash:SECONDARY>db.testdb.find();
{ "_id" : ObjectId("59676d711881041abab44477"), "name" : "alex" }

2.测试副本集的故障转移功能

timecash:PRIMARY> use admin
timecash:PRIMARY> db.shutdownServer()  #停掉 主节点

此时可以登录到副本节点查看,副本节点已经升级为主节点

验证(Pyhton)

1.主节点断开,看是否影响写入

(现在主是216,从是223)

脚本

#!/bin/env python

import time
from pymongo import MongoClient

#两地址
CONN_ADDR1 = '172.16.1.216:27017'
CONN_ADDR2 = '172.16.1.223:27017'
REPLICAT_SET = 'timecash'
#username = 'demouser'
#password = '123456'

#获取mongoclient
client = MongoClient([CONN_ADDR1, CONN_ADDR2], replicaSet=REPLICAT_SET)

for i in range(1000):
    try:
        client.test.tt.insert({"name":"test" + str(i)})
        time.sleep(1)
        print(client.primary,'主')
        print(client.secondaries,'从')
    except Exception  as e:
        print(e)

脚本执行打印的内容

# python3.5 test.py
('172.16.1.216', 27017) 主            #刚开始 216是主,223是从
{('172.16.1.223', 27017)} 从
('172.16.1.216', 27017) 主
{('172.16.1.223', 27017)} 从
('172.16.1.216', 27017) 主
{('172.16.1.223', 27017)} 从
('172.16.1.216', 27017) 主
{('172.16.1.223', 27017)} 从
('172.16.1.216', 27017) 主
{('172.16.1.223', 27017)} 从
('172.16.1.216', 27017) 主
{('172.16.1.223', 27017)} 从
('172.16.1.216', 27017) 主
{('172.16.1.223', 27017)} 从
('172.16.1.216', 27017) 主
{('172.16.1.223', 27017)} 从
('172.16.1.216', 27017) 主
{('172.16.1.223', 27017)} 从
('172.16.1.216', 27017) 主
{('172.16.1.223', 27017)} 从
('172.16.1.216', 27017) 主
{('172.16.1.223', 27017)} 从
('172.16.1.216', 27017) 主
{('172.16.1.223', 27017)} 从
connection closed                        #到这的时候,我把主(216)停了,然后发现写不进数据了
('172.16.1.223', 27017) 主               #到这的时候,mongo副本集的高可用自动把主切换到223了,216起来的时候 就会变成从
set() 从
('172.16.1.223', 27017) 主
set() 从
('172.16.1.223', 27017) 主
set() 从
('172.16.1.223', 27017) 主
set() 从
('172.16.1.223', 27017) 主
set() 从
('172.16.1.223', 27017) 主
set() 从
('172.16.1.223', 27017) 主
set() 从
('172.16.1.223', 27017) 主
set() 从
('172.16.1.223', 27017) 主
set() 从
('172.16.1.223', 27017) 主
set() 从
('172.16.1.223', 27017) 主
set() 从
('172.16.1.223', 27017) 主
set() 从
('172.16.1.223', 27017) 主
set() 从
('172.16.1.223', 27017) 主
set() 从
('172.16.1.223', 27017) 主
set() 从
('172.16.1.223', 27017) 主
set() 从
('172.16.1.223', 27017) 主
set() 从
('172.16.1.223', 27017) 主
set() 从
('172.16.1.223', 27017) 主
set() 从
('172.16.1.223', 27017) 主
set() 从
('172.16.1.223', 27017) 主             #到这的时候,216起来了 就称为从了
{('172.16.1.216', 27017)} 从
('172.16.1.223', 27017) 主
{('172.16.1.216', 27017)} 从
('172.16.1.223', 27017) 主
{('172.16.1.216', 27017)} 从
('172.16.1.223', 27017) 主
{('172.16.1.216', 27017)} 从
('172.16.1.223', 27017) 主
{('172.16.1.216', 27017)} 从

上面是 在执行脚本的时候,模拟主(216)宕机,看到主 迁移到了223上,在把216起来之后 变成 从了.  其中在主(216)挂了之后 切换的过程中 有一段数据写入丢了

{ "name" : "GOODODOO15" }
{ "name" : "GOODODOO592" }
{ "name" : "GOODODOO593" }
#其实这部分数据是由于在选举过程期间丢失的,要是不允许数据丢失,则把在选举期间的数据放到队列中,等到找到新的Primary,再写入