副本集介绍
• 副本集是什么
– MongoDB 复制是将数据同步在多个服务器的过程。
– 复制提供了数据的冗余备份,并在多个服务器上存储
数据副本,提高了数据的可用性, 并可以保证数据的
安全性。
– 复制还允许您从硬件故障和服务中断中恢复数据
复制原理
• 副本集工作过程
– mongodb 的复制至少需要两个节点。其中一个是主
节点,负责处理客户端请求,其余的都是从节点,负
责复制主节点上的数据。
– mongodb 各个节点常见的搭配方式为:一主一从、
一主多从。
– 主节点记录在其上的所有操作 oplog ,从节点定期轮
询主节点获取这些操作,然后对自己的数据副本执行
这些操作,从而保证从节点的数据与主节点一致。
副本集实现方式
• Master-Slave 主从复制
– 实现数据同步只需要在某一台服务器启动时加上 "-ma
ster" 参数,以指明此服务器的角色是 primary ;另一
台服务器加上 "-slave" 和 "-source" 参数,以指明此
服务器的角色是 slave 。
• 主从复制的优点如下:
– 从服务器可以执行查询工作,降低主服务器访问压力
。
– 在从服务器执行备份,避免备份期间锁定主服务器的
数据。
– 当主服务器出现故障时,可以快速切换到从服务器,
减少当机时间。
• Replica Sets 复制集
– MongoDB 在 1.6 版本对开发了新功能 replica set
,这比之前的 replication 功能要强大一 些,增加了
故障自动切换和自动修复成员节点,各个 DB 之间数
据完全一致,大大降低了维 护成功。使用 replica set
故障切换完全自动。
– Replica Sets 的结构类似一个集群,完全可以把它当
成一个集群,因为它确实与集群实现的作用是一样的
:如果其中一个节点出现故障,其他节点马上会将业
务接管过来而无须停机操作
启动副本集配置:
1. 51 52 53 主机:启动副本集
把三台主机,都停止mongodb服务
[root@host51 ~]# stopmgo
killing process with pid: 1296
[root@host51 ~]# ss -ntulp | grep mongod
[root@host51 ~]# vim /usr/local/mongodb/etc/mongodb.conf
logpath=/usr/local/mongodb/logs/mongodb.log
logappend=true
dbpath=/usr/local/mongodb/data/db
fork=true
bind_ip=192.168.4.51
port=27051
replSet=rs1
:wq
[root@host51 ~]# startmgo
about to fork child process, waiting until server is ready for connections.
forked process: 1769
child process started successfully, parent exiting
创建副本集:
配置节点信息
• 在任意一台主机连接 mongod 服务,执行如下操作
[root@host51 ~]# mongo --host 192.168.4.51 --port 27051
> config = {_id:"rs1",members:[{_id:0,host:"192.168.4.51:27051"},{_id:1,host:"192.168.4.52:27052"},{_id:2,host:"192.168.4.53:27053"}]}
{
"_id" : "rs1",
"members" : [
{
"_id" : 0,
"host" : "192.168.4.51:27051"
},
{
"_id" : 1,
"host" : "192.168.4.52:27052"
},
{
"_id" : 2,
"host" : "192.168.4.53:27053"
}
]
主库的操作记录:记录在日志文件中
[root@host51 ~]# ls /usr/local/mongodb/logs/
mongodb.log
二、副本集中的节点
1. Standard: 常规节点,存储了完整数据副本,参与投票,可能成为活跃节点,优先权非0.
2. Passive: 存储了完整数据副本,参与投票,不能成为活跃节点。优先权为0.
3. Arbiter:仲裁者,只参与投票,不接受复制的数据,也不能成为活跃节点。
如果活跃节点坏了,其他节点会选出一个新的活跃节点来。选举过程可以由任何非活跃节点发起。新的活跃节点由副本集中的大多数选举产生。仲裁节点也会参与投票,避免出现僵局。新的活跃节点将是优先级最高的节点,优先级相同则数据较新的获胜。
活跃节点使用心跳来跟踪集群中有多少节点对其可见。如果不够半数,活跃节点会自动降级为备份节点。这样就能防止活跃节点一直不放权。
不论活跃节点何时变化,新活跃节点的数据就被假定为系统的最新数据。其他节点的操作会回滚,即便之前的活跃节点恢复了工作。
2.初始化 Replica Sets 环境
> rs.initiate(config)
{
"ok" : 1,
"operationTime" : Timestamp(1533177462, 1),
"$clusterTime" : {
"clusterTime" : Timestamp(1533177462, 1),
"signature" : {
"hash" : BinData(0,"AAAAAAAAAAAAAAAAAAAAAAAAAAA="),
"keyId" : NumberLong(0)
}
}
}
rs1:SECONDARY>
rs1:SECONDARY> rs.status() //查看副本集的状态
"myState" : 1, //1代表主库
"myState" : 2, //2代表从库
rs1:PRIMARY> rs.isMaster() //查看是否主库
验证副本集配置
1.在主库上添加数据:
rs1:PRIMARY> show dbs
admin 0.000GB
buydb 0.000GB
config 0.000GB
ddsdb 0.000GB
gamedb 0.000GB
local 0.000GB
userdb 0.000GB
rs1:PRIMARY> use db101
switched to db db101
rs1:PRIMARY> show tables
rs1:PRIMARY> db.c1.save({nam:"bob",age:21})
WriteResult({ "nInserted" : 1 })
2.在副本主机上,安装
同步数据验证
– >db.getMongo( ).setSlaveOk( ) 允许从库查看数据
rs1:SECONDARY> db.getMongo( ).setSlaveOk( )
rs1:SECONDARY> show dbs
admin 0.000GB
buydb 0.000GB
config 0.000GB
db101 0.000GB
ddsdb 0.000GB
gamedb 0.000GB
local 0.000GB
userdb 0.000GB
rs1:SECONDARY> use db101
switched to db db101
rs1:SECONDARY> show tables
c1
rs1:SECONDARY> db.c1.find()
{ "_id" : ObjectId("5b62710ee4a3146682590fc1"), "nam" : "bob", "age" : 21 }