Mongodb安装搭建Replica Set+Sharding集群
一.简介
Replica Set:复制在为数据提供了冗余同时,也提高了数据的可用性。由于在不同的数据库服务器上拥有多个数据镜像,复制可以有效的防止由于单台服务器故障而导致的数据丢失。复制还能够帮助我们从硬件故障或是服务中断中恢复数据。复制集是由一组拥有相同数据集的 mongod 实例组成的。其中的一个节点为主节点(Primary),所有的写请求都是在它上面完成的。而其他的节点都是从节点(secondary),从节点接收从主节点上传来的操作并应用,并以此来保证其与主节点的数据集一致。
Sharding:分片是使用多个机器存储数据的方法,MongoDB使用分片以支持巨大的数据存储量与对数据操作.。高数据量和吞吐量的数据库应用会对单机的性能造成较大压力,大的查询量会将单机的CPU耗尽,大的数据量对单机的存储压力较大,最终会耗尽系统的内存而将压力转移到磁盘IO上。
Shard server:存储实际数据分片。每个shard可以是一个mongod实例,也可以是一组mongod实例构成的replicasets为了提供高可用性和数据的一致性,shard内部的故障自动切换,建议每个shard为一组replica sets。
Config server:所有shard节点的配置信息,每个分片的shard key范围,分片在各个shard的分布情况,集群中所有db和collection的sharding的配置信息。配置一个数据集存储于那些分片中。
Router server:客户端接入,先询问配置服务器需要到那个shard上查询或者保存记录然后连接shard执行,最后返回结果给客户端。分片群集可以包含多个查询路由器来划分客户端请求负载。客户端发送请求给一个查询的路由器。大多数分片集群有很多查询的路由器。
二.服务器以及服务信息
服务器 | Ip | 服务及端口 |
CentosA | 10.255.4.200 | mongod shard1_1:27017 |
mongod shard2_1:27018 | ||
mongod config:20000 | ||
Mongs:30000 | ||
CentosB | 10.255.4.201 | mongod shard1_2:7017 |
mongod shard2_2:7018 | ||
mongod config:20000 | ||
Mongs:30000 | ||
centosC | 10.255.4.202 | mongod shard1_3:27017 |
mongod shard2_3:27018 | ||
mongod config:20000 | ||
Mongs:30000 |
三.配置步骤和命令
1. 连接服务器
2. 建立数据和日志的目录
centosA:
mkdir -p /data/shard1_1
mkdir -p /data/shard2_1
mkdir -p /data/config
centosB:
mkdir -p /data/shard1_2
mkdir -p /data/shard2_2
mkdir -p /data/config
centosC:
mkdir -p /data/shard1_3
mkdir -p /data/shard2_3
mkdir -p /data/config
3. 安装mongodb
CentosA:yum –y install mongodb*
centosB:yum –y install mongodb*
centosC:yum –y install mongodb*
4. 启动分片mongod服务
centosA:
service mongod stop 停止已经启动的服务,可能会占用端口,导致后面报错
mongod --shardsvr --replSet shard1 --port 27017 --dbpath /data/shard1_1 --logpath /data/shard1_1/shard1_1.log --logappend --fork
mongod --shardsvr --replSet shard2 --port 27018 --dbpath /data/shard2_1 --logpath /data/shard2_1/shard2_1.log --logappend --fork
centosB:
service mongod stop
mongod --shardsvr --replSet shard1 --port 27017 --dbpath /data/shard1_2 --logpath /data/shard1_2/shard1_2.log --logappend --fork
mongod --shardsvr --replSet shard2 --port 27018 --dbpath /data/shard2_2 --logpath /data/shard2_2/shard2_2.log --logappend –fork
centosC:
service mongod stop
mongod --shardsvr --replSet shard1 --port 27017 --dbpath /data/shard1_3 --logpath /data/shard1_3/shard1_3.log --logappend --fork
mongod --shardsvr --replSet shard2 --port 27018 --dbpath /data/shard2_3 --logpath /data/shard2_3/shard2_3.log --logappend –fork
5. 任意连接一台centos配置分片和数据集
mongo --port 27017
config= = {_id:'shard1',members:[{_id:0,host:'10.255.4.200:27017'},{_id:1,host:'10.255.4.201:27017'},{_id:2,host:'10.255.4.202:27017'}]}
rs.initiate(config)
mongo --port 27018
config= = {_id:'shard2',members:[{_id:0,host:'10.255.4.200:27018'},{_id:1,host:'10.255.4.201:27018'},{_id:2,host:'10.255.4.202:27018'}]}
rs.initiate(config)
6. 启动config mongod服务
CentosA:
mongod --configsvr --dbpath /data/config --port 20000 --logpath /data/config/config.log --logappend –fork
CentosB:
mongod --configsvr --dbpath /data/config --port 20000 --logpath /data/config/config.log --logappend --fork
CentosC:
mongod --configsvr --dbpath /data/config --port 20000 --logpath /data/config/config.log --logappend --fork
7. 启动路由服务
centosA:
mongos --configdb 10.255.4.200:20000,10.255.4.201:20000,10.255.4.202:20000 --port 30000 --chunkSize 1 --logpath /data/mongos.log --logappend --fork
centosB:
mongos --configdb 10.255.4.200:20000,10.255.4.201:20000,10.255.4.202:20000 --port 30000 --chunkSize 1 --logpath /data/mongos.log --logappend --fork
centosC:
mongos --configdb 10.255.4.200:20000,10.255.4.201:20000,10.255.4.202:20000 --port 30000 --chunkSize 1 --logpath /data/mongos.log --logappend --fork
8.添加分片复制集,激活数据库和表分片
use admin
db.runCommand({addshard:"shard1/10.255.4.200:27017,10.255.4.201:27017,10.255.4.202:27017"});
db.runCommand({addshard:"shard2/10.255.4.200:27018,10.255.4.201:27018,10.255.4.202:27018"});
db.runCommand({enablesharding:"test"})
db.runCommand({shardcollection:"test.users",key:{_id:1}})
9. 测试集群分片结果
use test
for(var i=1;i<=200000;i++){db.users.insert({id:i,addr_1:"beijing",addr_2:"shenzhen"});}
db.users.stats()
如果得到如下结果,集群就搭建好了。
{
"sharded" : true,
"paddingFactorNote" : "paddingFactor is unused and unmaintained in 3.0. It remains hard coded to 1.0 for compatibility only.",
"userFlags" : 1,
"capped" : false,
"ns" : "test.users",
"count" : 200000,
"numExtents" : 14,
"size" : 22400000,
"storageSize" : 45015040,
"totalIndexSize" : 6532624,
"indexSizes" : {
"_id_" : 6532624
},
"avgObjSize" : 112,
"nindexes" : 1,
"nchunks" : 41,
"shards" : {
"shard1" : {
"ns" : "test.users",
"count" : 97323,
"size" : 10900176,
"avgObjSize" : 112,
"numExtents" : 7,
"storageSize" : 22507520,
"lastExtentSize" : 11325440,
"paddingFactor" : 1,
"paddingFactorNote" : "paddingFactor is unused and unmaintained in 3.0. It remains hard coded to 1.0 for compatibility only.",
"userFlags" : 1,
"capped" : false,
"nindexes" : 1,
"totalIndexSize" : 3180464,
"indexSizes" : {
"_id_" : 3180464
},
"ok" : 1,
"$gleStats" : {
"lastOpTime" : Timestamp(0, 0),
"electionId" : ObjectId("55b8e2373dd78de0a20af2af")
}
},
"shard2" : {
"ns" : "test.users",
"count" : 102677,
"size" : 11499824,
"avgObjSize" : 112,
"numExtents" : 7,
"storageSize" : 22507520,
"lastExtentSize" : 11325440,
"paddingFactor" : 1,
"paddingFactorNote" : "paddingFactor is unused and unmaintained in 3.0. It remains hard coded to 1.0 for compatibility only.",
"userFlags" : 1,
"capped" : false,
"nindexes" : 1,
"totalIndexSize" : 3352160,
"indexSizes" : {
"_id_" : 3352160
},
"ok" : 1,
"$gleStats" : {
"lastOpTime" : Timestamp(0, 0),
"electionId" : ObjectId("55b8e272eb6c0b02db85986a")
}
}
},
"ok" : 1
}