用两台虚拟机模拟6个节点,一台机器3个节点,创建出3 master、3 salve 环境。

redis 采用 redis-3.2.4 版本

两台虚拟机都是 CentOS,一台 CentOS6.5 (IP:192.168.1.100),一台 CentOS6.5(IP:192.168.1.101) 。

安装过程

1. 下载并解压

cd /root

wget http://download.redis.io/releases/redis-3.2.4.tar.gz

tar -zxvf redis-3.2.4.tar.gz

2. 编译安装

cd redis-3.2.4
make && make install

3. 将 redis-trib.rb 复制到 /usr/local/bin 目录下

cd src
cp redis-trib.rb /usr/local/bin/

4. 创建 Redis 节点

首先在 192.168.1.100机器上 /root/redis-3.2.4 目录下创建 redis_cluster 目录;

mkdir redis_cluster

在 redis_cluster 目录下,创建名为7000、7001、7002的目录,并将 redis.conf 拷贝到这三个目录中

mkdir 7000 7001 7002<br>cp redis.conf redis_cluster/7000
cp redis.conf redis_cluster/7001
cp redis.conf redis_cluster/7002

分别修改这三个配置文件,修改如下内容

port  7000                                        //端口7000,7002,7003        
bind 本机ip                                       //默认ip为127.0.0.1 需要改为其他节点机器可访问的ip 否则创建集群时无法访问对应的端口,无法创建集群.此处192.168.1.100
daemonize    yes                               //redis后台运行
pidfile  /var/run/redis_7000.pid          //pidfile文件对应7000,7001,7002
cluster-enabled  yes                           //开启集群  把注释#去掉
cluster-config-file  nodes_7000.conf   //集群的配置  配置文件首次启动自动生成 7000,7001,7002
cluster-node-timeout  15000                //请求超时  默认15秒,可自行设置
appendonly  yes                           //aof日志开启  有需要就开启,它会每次写操作都记录一条日志

接着在另外一台机器上(192.168.1.101),的操作重复以上三步,只是把目录改为7003、7004、7005,对应的配置文件也按照这个规则修改即可.

5. 启动各个节点

第一台机器上执行
redis-server redis_cluster/7000/redis.conf
redis-server redis_cluster/7001/redis.conf
redis-server redis_cluster/7002/redis.conf
 
另外一台机器上执行
redis-server redis_cluster/7003/redis.conf
redis-server redis_cluster/7004/redis.conf
redis-server redis_cluster/7005/redis.conf

6. 检查 redis 启动情况

##一台机器<br>ps -ef | grep redis
root      61020      1  0 02:14 ?        00:00:01 redis-server 192.168.1.100:7000 [cluster]    
root      61024      1  0 02:14 ?        00:00:01 redis-server 192.168.1.100:7001 [cluster]    
root      61029      1  0 02:14 ?        00:00:01 redis-server 192.168.1.100:7002 [cluster]
##另外一台机器
ps -ef | grep redis
root       9957      1  0 02:32 ?        00:00:01 redis-server 192.168.1.101:7003 [cluster]
root       9964      1  0 02:32 ?        00:00:01 redis-server 192.168.1.101:7004 [cluster]
root       9971      1  0 02:32 ?        00:00:01 redis-server 192.168.1.101:7005 [cluster]
root      10065   4744  0 02:38 pts/0    00:00:00 grep --color=auto redis

7.创建集群

Redis 官方提供了 redis-trib.rb 这个工具,就在解压目录的 src 目录中,第三步中已将它复制到 /usr/local/bin 目录中,可以直接在命令行中使用了。使用下面这个命令即可完成安装。

redis-trib.rb 这个工具需要安装 ruby。安装命令如下:


yum -y install ruby ruby-devel rubygems rpm-build

gem install redis

之后再运行 redis-trib.rb 命令,会出现如下提示:输入 yes 即可,然后出现如下内容,说明安装成功。

redis-trib.rb  create  --replicas  1  192.168.1.100:7000 192.168.1.100:7001  192.168.1.100:7002 192.168.1.101:7003  192.168.1.101:7004  192.168.1.101:7005
#redis-trib.rb  create  --replicas  1  192.168.1.100:7000 192.168.1.100:7001  192.168.1.100:7002 192.168.1.101:7003  192.168.1.101:7004  192.168.1.101:7005

>>> Creating cluster
>>> Performing hash slots allocation on 6 nodes...
Using 3 masters:
192.168.1.100:7000
192.168.1.101:7003
192.168.1.100:7001
Adding replica 192.168.1.101:7004 to 192.168.1.100:7000
Adding replica 192.168.1.100:7002 to 192.168.1.101:7003
Adding replica 192.168.1.101:7005 to 192.168.1.100:7001
M: d958cdb8cea707b7e9acfde6339d202f3f0a4048 192.168.1.100:7000
   slots:0-5460 (5461 slots) master
M: adef0530910741bf6a7c7560f1e3ffdec39d7825 192.168.1.100:7001
   slots:10923-16383 (5461 slots) master
S: 06cfe6f342d434a2fae93838cc3b889729055b13 192.168.1.100:7002
   replicates 27e53c422007169cc69709b4caa76c353a5770c3
M: 27e53c422007169cc69709b4caa76c353a5770c3 192.168.1.101:7003
   slots:5461-10922 (5462 slots) master
S: 139cba6b844e091ec67494b00f03a8bd2b2a9087 192.168.1.101:7004
   replicates d958cdb8cea707b7e9acfde6339d202f3f0a4048
S: 1031c652d44a4f9e8b4513b0357d1c4cb9fd6307 192.168.1.101:7005
   replicates adef0530910741bf6a7c7560f1e3ffdec39d7825
Can I set the above configuration? (type 'yes' to accept): yes
>>> Nodes configuration updated
>>> Assign a different config epoch to each node
>>> Sending CLUSTER MEET messages to join the cluster
Waiting for the cluster to join......
>>> Performing Cluster Check (using node 192.168.1.100:6000)
M: d958cdb8cea707b7e9acfde6339d202f3f0a4048 192.168.1.100:6000
   slots:0-5460 (5461 slots) master
   1 additional replica(s)
S: 139cba6b844e091ec67494b00f03a8bd2b2a9087 192.168.1.101:7004
   slots: (0 slots) slave
   replicates d958cdb8cea707b7e9acfde6339d202f3f0a4048
S: 06cfe6f342d434a2fae93838cc3b889729055b13 192.168.1.100:7002
   slots: (0 slots) slave
   replicates 27e53c422007169cc69709b4caa76c353a5770c3
S: 1031c652d44a4f9e8b4513b0357d1c4cb9fd6307 192.168.1.101:7005
   slots: (0 slots) slave
   replicates adef0530910741bf6a7c7560f1e3ffdec39d7825
M: 27e53c422007169cc69709b4caa76c353a5770c3 192.168.1.101:7003
   slots:5461-10922 (5462 slots) master
   1 additional replica(s)
M: adef0530910741bf6a7c7560f1e3ffdec39d7825 192.168.1.100:7001
   slots:10923-16383 (5461 slots) master
   1 additional replica(s)
[OK] All nodes agree about slots configuration.
>>> Check for open slots...
>>> Check slots coverage...
[OK] All 16384 slots covered.

8. 集群验证

在第一台机器上连接集群的7002端口的节点,在另外一台连接7005节点,连接方式为 redis-cli -h 192.168.1.100 -c -p 7002  ,加参数 -C 可连接到集群,因为上面 redis.conf 将 bind 改为了ip地址,所以 -h 参数不可以省略。

192.168.1.100:7002> set hello world
-> Redirected to slot [866] located at 192.168.1.100:7002
OK
192.168.1.100:7002> keys *
1) "hello"

然后在另外一台7003端口,查看 key 为 hello 的内容, get hello  ,执行结果如下:

# redis-cli -h 192.168.1.101 -c -p 7005
192.168.1.101:7005> get hello
-> Redirected to slot [866] located at 192.168.1.100:7002
"world"
192.168.1.100:7002> get hello
"world"

说明集群运作正常。

简单说一下原理:

redis cluster在设计的时候,就考虑到了去中心化,去中间件,也就是说,集群中的每个节点都是平等的关系,都是对等的,每个节点都保存各自的数据和整个集群的状态。每个节点都和其他所有节点连接,而且这些连接保持活跃,这样就保证了我们只需要连接集群中的任意一个节点,就可以获取到其他节点的数据。

Redis 集群没有并使用传统的一致性哈希来分配数据,而是采用另外一种叫做哈希槽 (hash slot)的方式来分配的。redis cluster 默认分配了 16384 个slot,当我们set一个key 时,会用CRC16算法来取模得到所属的slot,然后将这个key 分到哈希槽区间的节点上,具体算法就是:CRC16(key) % 16384。所以我们在测试的时候看到set 和 get 的时候,直接跳转到了7002端口的节点。

Redis 集群会把数据存在一个 master 节点,然后在这个 master 和其对应的salve 之间进行数据同步。当读取数据时,也根据一致性哈希算法到对应的 master 节点获取数据。只有当一个master 挂掉之后,才会启动一个对应的 salve 节点,充当 master 。

需要注意的是:必须要3个或以上的主节点,否则在创建集群时会失败,并且当存活的主节点数小于总节点数的一半时,整个集群就无法提供服务了。