Zookeeper分布式安装及客户端命令行操作

分布式安装部署
1.集群规划

在node1、node2和node3三个节点上部署Zookeeper。

2.解压安装

官网下载https://zookeeper.apache.org/

1)解压zookeeper安装包到/opt/module/目录下

[root@node1 module]$ tar -zxvf zookeeper-3.4.6.tar.gz -C /opt/software/

(2)在/opt/software/zookeeper-3.4.6/这个目录下创建zkData

mkdir -p zkData

(3)重命名/opt/software/zookeeper-3.4.6/conf这个目录下的zoo_sample.cfg为zoo.cfg

mv zoo_sample.cfg zoo.cfg
3.配置zoo.cfg文件

(1)具体配置

dataDir=/opt/software/zookeeper-3.4.6/zkData

增加如下配置

#######################cluster##########################
server.1=node1:2888:3888
server.2=node2:2888:3888
server.3=node3:2888:3888

(2)配置参数解读

server.A=B:C:D。

A是一个数字,表示这个是第几号服务器;
B是这个服务器的ip地址;
C是这个服务器与集群中的Leader服务器交换信息的端口;
D是万一集群中的Leader服务器挂了,需要一个端口来重新进行选举,选出一个新的Leader,而这个端口就是用来执行选举时服务器相互通信的端口。

集群模式下配置一个文件myid,这个文件在dataDir目录下,这个文件里面有一个数据就是A的值,Zookeeper启动时读取此文件,拿到里面的数据与zoo.cfg里面的配置信息比较从而判断到底是哪个server。

4.集群操作

(1)在/opt/software/zookeeper-3.4.6/zkData目录下创建一个myid的文件

touch myid

添加myid文件,注意一定要在linux里面创建,在notepad++里面很可能乱码

(2)编辑myid文件

vim myid

在文件中添加与server对应的编号:如1

(3)拷贝配置好的zookeeper到其他机器上

[root@node1 zookeeper-3.4.6]# scp -r /opt/software/zookeeper-3.4.6/ node2:/opt/software/
[root@node1 zookeeper-3.4.6]# scp -r /opt/software/zookeeper-3.4.6/ node3:/opt/software/

并分别修改myid文件中内容为2、3

[root@node2 ~]# cd /opt/software/zookeeper-3.4.6/
[root@node2 zookeeper-3.4.6]# echo 2 > zkData/myid 

[root@node3 ~]# cd /opt/software/zookeeper-3.4.6/
[root@node3 zookeeper-3.4.6]# echo 3 > zkData/myid

(4)分别启动zookeeper

[root@node1 zookeeper-3.4.6]# bin/zkServer.sh start
[root@node2 zookeeper-3.4.6]# bin/zkServer.sh start
[root@node3 zookeeper-3.4.6]# bin/zkServer.sh start

(5)查看状态

[root@node1 zookeeper-3.4.6]# bin/zkServer.sh status
JMX enabled by default
Using config: /opt/software/zookeeper-3.4.6/bin/../conf/zoo.cfg
Mode: follower

[root@node2 zookeeper-3.4.6]# bin/zkServer.sh status
JMX enabled by default
Using config: /opt/software/zookeeper-3.4.6/bin/../conf/zoo.cfg
Mode: leader

[root@node3 zookeeper-3.4.6]# bin/zkServer.sh status
JMX enabled by default
Using config: /opt/software/zookeeper-3.4.6/bin/../conf/zoo.cfg
Mode: follower
配置参数解读

解读zoo.cfg 文件中参数含义

1.tickTime:通信心跳数,Zookeeper服务器心跳时间,单位毫秒

Zookeeper使用的基本时间,服务器之间维持心跳的时间间隔,也就是每个tickTime时间就会发送一个心跳,时间单位为毫秒。

2.initLimit:LF初始通信时限

集群中的follower跟随者服务器(F)与leader领导者服务器(L)之间初始连接时能容忍的最多心跳数(tickTime的数量),用它来限定集群中的Zookeeper服务器连接到Leader的时限。

3.syncLimit:LF同步通信时限

集群中Leader与Follower之间的最大响应时间单位,假如响应超过syncLimit * tickTime,

Leader认为Follwer死掉,从服务器列表中删除Follwer。

在运行过程中,Leader负责与ZK集群中所有机器进行通信,例如通过一些心跳检测机制,来检测机器的存活状态。

如果L发出心跳包在syncLimit之后,还没有从F那收到响应,那么就认为这个F已经不在线了。

4.dataDir:数据文件目录+数据持久化路径

保存内存数据库快照信息的位置,如果没有其他说明,更新的事务日志也保存到数据库。

5.clientPort:客户端连接端口

监听客户端连接的端口

客户端命令行操作

命令基本语法

功能描述

help

显示所有操作命令

ls path [watch]

使用 ls 命令来查看当前znode中所包含的内容

ls2 path [watch]

查看当前节点数据并能看到更新次数等数据

create

普通创建 -s 含有序列 -e 临时(重启或者超时消失)

get path [watch]

获得节点的值

set

设置节点的具体值

stat

查看节点状态

delete

删除节点

rmr

递归删除节点

1.启动客户端
[root@node1 zookeeper-3.4.6]$ bin/zkCli.sh
2.显示所有操作命令
[zk: localhost:2181(CONNECTED) 1] help
3.查看当前znode中所包含的内容
[zk: localhost:2181(CONNECTED) 0] ls /
[zookeeper]
4.查看当前节点数据并能看到更新次数等数据
[zk: localhost:2181(CONNECTED) 1] ls2 /
[zookeeper]
cZxid = 0x0
ctime = Thu Jan 01 08:00:00 CST 1970
mZxid = 0x0
mtime = Thu Jan 01 08:00:00 CST 1970
pZxid = 0x0
cversion = -1
dataVersion = 0
aclVersion = 0
ephemeralOwner = 0x0
dataLength = 0
numChildren = 1
5.创建普通节点
[zk: localhost:2181(CONNECTED) 8] create /app1 'hello_app1'
Created /app1
[zk: localhost:2181(CONNECTED) 9] create /app1/server101 "192.168.200.101"
Created /app1/server101
6.获得节点的值
[zk: localhost:2181(CONNECTED) 10] get /app1
'hello_app1'
cZxid = 0x100000002
ctime = Sun May 03 22:50:48 CST 2020
mZxid = 0x100000002
mtime = Sun May 03 22:50:48 CST 2020
pZxid = 0x100000003
cversion = 1
dataVersion = 0
aclVersion = 0
ephemeralOwner = 0x0
dataLength = 12
numChildren = 1

[zk: localhost:2181(CONNECTED) 11] get /app1/server101                   
"192.168.200.101"
cZxid = 0x100000003
ctime = Sun May 03 22:51:19 CST 2020
mZxid = 0x100000003
mtime = Sun May 03 22:51:19 CST 2020
pZxid = 0x100000003
cversion = 0
dataVersion = 0
aclVersion = 0
ephemeralOwner = 0x0
dataLength = 17
numChildren = 0
7.创建短暂节点
[zk: localhost:2181(CONNECTED) 9] create -e /app-emphemeral 8888

(1)在当前客户端是能查看到的

[zk: localhost:2181(CONNECTED) 10] ls /

[app1, app-emphemeral, zookeeper]

(2)退出当前客户端然后再重启客户端

[zk: localhost:2181(CONNECTED) 12] quit

[bigdata@node4 zookeeper-3.4.6]$ bin/zkCli.sh

(3)再次查看根目录下短暂节点已经删除

[zk: localhost:2181(CONNECTED) 0] ls /

[app1, zookeeper]
8.创建带序号的节点

(1)先创建一个普通的根节点app2

[zk: localhost:2181(CONNECTED) 11] create /app2 "app2"

(2)创建带序号的节点

[zk: localhost:2181(CONNECTED) 13] create -s /app2/aa 888
Created /app2/aa0000000000
[zk: localhost:2181(CONNECTED) 14] create -s /app2/bb 888
Created /app2/bb0000000001
[zk: localhost:2181(CONNECTED) 15] create -s /app2/cc 888
Created /app2/cc0000000002

如果原节点下有1个节点,则再排序时从1开始,以此类推。

[zk: localhost:2181(CONNECTED) 16] create -s /app1/aa 888
Created /app1/aa0000000001
9.修改节点数据值
[zk: localhost:2181(CONNECTED) 2] set /app1 999
10.节点的值变化监听

(1)在103主机上注册监听/app1节点数据变化

[zk: localhost:2181(CONNECTED) 26] get /app1 watch

(2)在102主机上修改/app1节点的数据

[zk: localhost:2181(CONNECTED) 5] set /app1 777

(3)观察103主机收到数据变化的监听

WATCHER::
WatchedEvent state:SyncConnected type:NodeDataChanged path:/app1
11.节点的子节点变化监听(路径变化)

(1)在103主机上注册监听/app1节点的子节点变化

[zk: localhost:2181(CONNECTED) 1] ls /app1 watch
[aa0000000001, server101]

(2)在102主机/app1节点上创建子节点

[zk: localhost:2181(CONNECTED) 6] create /app1/bb 666
Created /app1/bb

(3)观察103主机收到子节点变化的监听

WATCHER::

WatchedEvent state:SyncConnected type:NodeChildrenChanged path:/app1
12.删除节点
[zk: localhost:2181(CONNECTED) 4] delete /app1/bb
13.递归删除节点
[zk: localhost:2181(CONNECTED) 7] rmr /app2
14.查看节点状态
[zk: localhost:2181(CONNECTED) 12] stat /app1
cZxid = 0x100000002
ctime = Sun May 03 22:50:48 CST 2020
mZxid = 0x100000011
mtime = Sun May 03 23:06:02 CST 2020
pZxid = 0x100000014
cversion = 3
dataVersion = 3
aclVersion = 0
ephemeralOwner = 0x0
dataLength = 3
numChildren = 3