Zookeeper组件部署

1 实验目的

掌握ZooKeeper集群安装部署,加深对ZooKeeper相关概念的理解,熟练ZooKeeper的一些常用Shell命令。

2 实验要求

部署三个节点的ZooKeeper集群,通过ZooKeeper客户端连接ZooKeeper集群,并用Shell命令练习创建目录,查询目录等。

3 实验原理

ZooKeeper 分布式服务框架是 Apache Hadoop 的一个子项目,它主要是用来解决分布式应用中经常遇到的一些数据管理问题,如:统一命名服务、状态同步服务、集群管理、分布式应用配置项的管理等。
ZooKeeper是以Fast Paxos算法为基础的。
ZooKeeper集群的初始化过程:集群中所有机器以投票的方式(少数服从多数)选取某一台机器作为leader(领导者),其余机器作为follower(追随者)。如果集群中只有一台机器,那么就这台机器就是leader,没有follower。
ZooKeeper集群与客户端的交互:客户端可以在任意情况下ZooKeeper集群中任意一台机器上进行读操作;但是写操作必须得到leader的同意后才能执行。
ZooKeeper选取leader的核心算法思想:如果某服务器获得N/2 + 1票,则该服务器成为leader。N为集群中机器数量。为了避免出现两台服务器获得相同票数(N/2),应该确保N为奇数。因此构建ZooKeeper集群最少需要3台机器。

4 实验步骤

本实验主要介绍ZooKeeper的部署,ZooKeeper一般部署奇数个节点,部署方法包主要含安装JDK、修改配置文件、启动测试三个步骤。

4.1安装JDK

下载安装JDK。因为 ZooKeeper 服务器在 JVM 上运行。

4.2 修改ZooKeeper配置文件

首先配置master,slave1,slave2之间的免密和各个机器的/etc/hosts文件,在环境搭建界面点击一键搭建即可。
上传 apache-zookeeper-3.5.7-bin.tar.gz 到 /export/software

解压缩到server

tar -zxvf apache-zookeeper-3.5.7-bin.tar.gz -C /export/server

修改apache-zookeeper-3.5.7-bin名称为zookeeper

cd /export/server/
mv apache-zookeeper-3.5.7-bin/ zookeeper

修改ZooKeeper的配置文件,步骤如下:
进入解压目录下,把conf目录下的zoo_sample.cfg 复制成zoo.cfg文件。

cd /export/server/zookeeper/conf
cp zoo_sample.cfg zoo.cfg

打开zoo.cfg并修改和添加配置项目,如下:

vim zoo.cfg

修改和添加配置项目

# The number of milliseconds of each tick
tickTime=2000
# The number of ticks that the initial 
# synchronization phase can take
initLimit=10
# The number of ticks that can pass between 
# sending a request and getting an acknowledgement
syncLimit=5
# the port at which the clients will connect
clientPort=2181
# the directory where the snapshot is stored.
dataDir=/export/server/zookeeper/data
dataLogDir=/export/server/zookeeper/logs
server.1=Master.itcast.cn:2888:3888
server.2=Slave1.itcast.cn:2888:3888
server.3=Slave2.itcast.cn:2888:3888

在/export/server/zookeeper目录下创建文件夹data和文件夹log,然后

mkdir -p /export/server/zookeeper/data
mkdir -p /export/server/zookeeper/log

在data目录下创建一个文件:myid。

echo 1 > /export/server/zookeeper/data/myid

将/usr/cstor/zookeeper目录传到另外两台机器上。
拷贝至slave1。

scp -r /export/server/zookeeper  slave1:/export/server

拷贝至slave2。

scp -r /export/server/zookeeper  slave2:/export/server

按照zoo.cfg配置文件中server.后面的数值去不同机器修改myid的内容如下:

master 的myid内容为1
slave1 的myid内容为2
slave2 的myid内容为3

4.3 配置环境变量

3台机器都需要配置环境变量文件

vim /etc/profile

设置ZooKeeper环境变量

#set zookeeoer environment
export ZOOKEEPER_HOME=/export/server/zookeeper
export PATH=$ZOOKEEPER_HOME/bin:$PATH

保持退出后刷新环境变量

source /etc/profile

4.4 启动ZooKeeper集群

然后,启动ZooKeeper集群,进入客户端验证部署完成。
分别在master,slave1,slave2进入bin目录,启动ZooKeeper服务进程:

cd /export/server/zookeeper/bin
./zkServer.sh start

5 实验结果

各个节点执行jps命令查看Java进程,有QuorumPeerMain进程代表该节点ZooKeeper安装成功,如图所示。

zookeeper集群扩充节点数据丢失 zookeeper集群使用_配置文件


查看集群状态

zkServer.sh status

zookeeper集群扩充节点数据丢失 zookeeper集群使用_zookeeper集群扩充节点数据丢失_02

进入客户端

cd /export/server/zookeeper/bin
 ./zkCli.sh

在客户端shell下查看ZooKeeper集群目录,输入命令:ls /,查看ZooKeeper集群目录列表结果

zookeeper集群扩充节点数据丢失 zookeeper集群使用_zookeeper_03