一、最近公司在做队列的技术选型,经过调研,决定使用rocketmq作为整个架构的队列层,我们之前的公司是用RabbitMQ,集群部署参考我之前的文章:RabbitMQ集群部署;rocketmq集群由NameServer和Broker两种角色组成,NameServer是无状态的可以横向部署多台达到消除单点的目的;Broker分多master、多master多slave同步、多master多slave异步这三种部署方案,一般生产环境都使用的是多master多slave异步这种方案,关于这三种方案的优缺点对比如下:
多Master模式(2m-noslave) :
一个集群无Slave,全是Master,例如2个Master或者3个Master
优点:配置简单,单个Master宕机或重启维护对应用无影响,在磁盘配置为RAID10时,即使机器宕机不可恢复情况下,由于RAID10磁盘非常可靠,消息也不会丢(异步刷盘丢失少量消息,同步刷盘一条不丢)。性能最高。
缺点:单台机器宕机期间,这台机器上未被消费的消息在机器恢复之前不可订阅,消息实时性会受到受到影响。
多Master多Slave模式,异步复制(2m-2s-async) :
每个Master配置一个Slave,有多对Master-Slave,HA采用异步复制方式,主备有短暂消息延迟,毫秒级。
优点:即使磁盘损坏,消息丢失的非常少,且消息实时性不会受影响,因为Master宕机后,消费者仍然可以从Slave消费,此过程对应用透明。不需要人工干预。性能同多Master模式几乎一样。
缺点:Master宕机,磁盘损坏情况,会丢失少量消息。
多Master多Slave模式,同步双写(2m-2s-sync)
每个Master配置一个Slave,有多对Master-Slave,HA采用同步双写方式,主备都写成功,向应用返回成功。
优点:数据与服务都无单点,Master宕机情况下,消息无延迟,服务可用性与数据可用性都非常高
缺点:性能比异步复制模式略低,大约低10%左右,发送单个消息的RT会略高。目前主宕机后,备机不能自动切换为主机,后续会支持自动切换功能。
二、环境
1、版本
JDK版本 :openjdk version "1.8.0_161"
rocketmq版本:4.2.0
rocketmq-console-ng版本:1.0.0
2、角色
rocketmq-console-ng(监控管理):
192.168.54.26:8080
NameServer:
192.168.47.183:9876
192.168.47.184:9876
broker:
192.168.47.183:10911 master broker-a
192.168.47.184:10911 slave broker-a
192.168.47.185:10911 master broker-b
192.168.47.186:10911 slave broker-b
三、部署
1、下载二进制包并解压

mkdir /chj/app/rocketmq -p;cd /chj/app/rocketmq
wget http://mirrors.shu.edu.cn/apache/rocketmq/4.2.0/rocketmq-all-4.2.0-bin-release.zip

unzip rocketmq-all-4.2.0-bin-release.zip
2、撰写配置文件,默认的配置不能满足我们的需求,需要我们自己添加定制相关的参数,由于我们要部署的是多master多slave的异步方案,所以我们修改或者添加/chj/app/rocketmq/conf/2m-2s-async目录下的配置文件即可(建议在broker的一台节点上把所有的配置文件都撰写好,统一分发到所有节点,保持所有节点的配置文件一致,起服务的时候不同的节点使用不同的配置文件即可,方便后期维护)
A、4个文件的差异配置

vim broker-a.properties

brokerName=broker-a
brokerId=0
brokerRole=ASYNC_MASTER

vim broker-a-s.properties

brokerName=broker-a
brokerId=1
brokerRole=SLAVE

vim broker-b.properties

brokerName=broker-b
brokerId=0
brokerRole=ASYNC_MASTER

vim broker-b-s.properties

brokerName=broker-b
brokerId=1
brokerRole=SLAVE

B、初了上面的配置每个配置文件不一样,下面的配置都一样

#所属集群名字
brokerClusterName=rocketmq-cluster-test
#broker名字,注意此处不同的配置文件填写的不一样,
#brokerName=broker-a
#0 表示 Master,>0 表示 Slave
#brokerId=0
#nameServer地址,分号分割
namesrvAddr=192.168.47.183:9876;192.168.47.184:9876
#在发送消息时,自动创建服务器不存在的topic,默认创建的队列数
defaultTopicQueueNums=4
#是否允许 Broker 自动创建Topic,建议线下开启,线上关闭
autoCreateTopicEnable=true
#是否允许 Broker 自动创建订阅组,建议线下开启,线上关闭
autoCreateSubscriptionGroup=true
#Broker 对外服务的监听端口
listenPort=10911
#删除文件时间点,默认凌晨 4点
deleteWhen=04
#文件保留时间,默认 48 小时
fileReservedTime=120
#commitLog每个文件的大小默认1G
mapedFileSizeCommitLog=1073741824
#ConsumeQueue每个文件默认存30W条,根据业务情况调整
mapedFileSizeConsumeQueue=300000
#destroyMapedFileIntervalForcibly=120000
#redeleteHangedFileInterval=120000
#检测物理文件磁盘空间
diskMaxUsedSpaceRatio=88
#存储路径
storePathRootDir=/chj/data/rocketmq/store
#commitLog 存储路径
storePathCommitLog=/chj/data/rocketmq/store/commitlog
#消费队列存储路径存储路径
storePathConsumeQueue=/chj/data/rocketmq/store/consumequeue
#消息索引存储路径
storePathIndex=/chj/data/rocketmq/store/index
#checkpoint 文件存储路径
storeCheckpoint=/chj/data/rocketmq/store/checkpoint
#abort 文件存储路径
abortFile=/chj/data/rocketmq/store/abort
#限制的消息大小
maxMessageSize=65536

#flushCommitLogLeastPages=4
#flushConsumeQueueLeastPages=2
#flushCommitLogThoroughInterval=10000
#flushConsumeQueueThoroughInterval=60000
#Broker 的角色
#- ASYNC_MASTER 异步复制Master
#- SYNC_MASTER 同步双写Master
#- SLAVE
#brokerRole=ASYNC_MASTER

#刷盘方式
#- ASYNC_FLUSH 异步刷盘
#- SYNC_FLUSH 同步刷盘
flushDiskType=ASYNC_FLUSH
#checkTransactionMessageEnable=false
#发消息线程池数量
#sendMessageThreadPoolNums=128
#拉消息线程池数量
#pullMessageThreadPoolNums=128

3、启动服务
NameServer启动(两个节点的启动方法一样)
cd /chj/app/rocketmq/&& nohup ./bin/mqnamesrv &
192.168.47.183上启动Broker
cd /chj/app/rocketmq/&& nohup sh /chj/app/rocketmq/bin/mqbroker -c /chj/app/rocketmq/conf/2m-2s-async/broker-a.properties >/chj/log/rocketmq/broker-a.log >/dev/null 2>&1 &
192.168.47.184上启动Broker
cd /chj/app/rocketmq/&& nohup sh /chj/app/rocketmq/bin/mqbroker -c /chj/app/rocketmq/conf/2m-2s-async/broker-a-s.properties >/chj/log/rocketmq/broker-a-s.log >/dev/null 2>&1 &
192.168.47.185上启动Broker
cd /chj/app/rocketmq/&& nohup sh /chj/app/rocketmq/bin/mqbroker -c /chj/app/rocketmq/conf/2m-2s-async/broker-b.properties >/chj/log/rocketmq/broker-b.log >/dev/null 2>&1 &
192.168.47.186上启动Broker
cd /chj/app/rocketmq/&& nohup sh /chj/app/rocketmq/bin/mqbroker -c /chj/app/rocketmq/conf/2m-2s-async/broker-b-s.properties >/chj/log/rocketmq/broker-b-s.log >/dev/null 2>&1 &
四、rocketmq-console-ng部署
rocketmq-console-ng是rocketmq的一个可视化的监控工具,项目地址:github地址,它可以用传统的部署方式也可以使用docker的部署方式,我们选择docker这种方式部署。

docker pull styletang/rocketmq-console-ng
docker run  -itd -e "JAVA_OPTS=-Drocketmq.namesrv.addr=192.168.47.183:9876 -Dcom.rocketmq.sendMessageWithVIPChannel=false" -p 8080:8080 -t styletang/rocketmq-console-ng

访问192.168.54.26:8080,查看cluster状态

rocketmq集群部署(多master多slave异步)

PS:参考链接
http://blog.csdn.net/lovesomnus/article/details/51769977
http://blog.csdn.net/jayjjb/article/details/70140667