zookeeper安装
转载
- tickTime=2000
- dataDir=/home/hadoop/zookeeper/data
- clientPort=2181
- initLimit=10
- syncLimit=5
- server.1=Master.Hadoop:2888:3888
- server.2=Slave1.Hadoop:2888:3888
- server.3=Slave2.Hadoop:2888:3888
- 其中各个字段都有自己的含义,有兴趣的可以自己查阅相关字段的意义。下面的server.1,server.2,server.3标签表示的是3个zookeeper节点,他们都是相同的地位,在工作的时候他们通过一个算法来推举出来一个leader其他的都是follower,在后面的验证中可以看到。他的服务如下图所示:
- 发布到其他的两个节点,(执行前注意自己的所在目录):
[html]view plaincopyprint?
- scp -r zookeeper-3.4.5/ hadoop@Slave1.Hadoop:~/zookeeper/
- scp -r zookeeper-3.4.5/ hadoop@Slave2.Hadoop:~/zookeeper/
- 设置myid 在我们配置的dataDir指定的目录下面,创建一个myid文件,里面内容为一个数字,用来标识当前主机,conf/zoo.cfg文件中配置的server.X中X为什么数字,则myid文件中就输入这个数字,例如:
[html]view plaincopyprint?
- hadoop@Master:~/zookeeper$ echo "1" > /home/hadoop/zookeeper/myid
- hadoop@Slave1:~/zookeeper$ echo "2" > /home/hadoop/zookeeper/myid
- hadoop@Slave2:~/zookeeper$ echo "3" > /home/hadoop/zookeeper/myid
- 启动zookeeper
[html]view plaincopyprint?
- hadoop@Master:~/zookeeper/zookeeper-3.3.4$ bin/zkServer.sh start
- hadoop@Slave1:~/zookeeper/zookeeper-3.3.4$ bin/zkServer.sh start
- hadoop@Slave2:~/zookeeper/zookeeper-3.3.4$ bin/zkServer.sh start
- 出现的一个问题。下面是查看日志的截图:
- 经过检查发现时在配置文件 zoo.cfg中写的目录有问题。配置的目录和新建myid的目录不一样造成的。在第6步中容易发现问题。修改myid的目录。
- 查看是否成功。
- 后面检测三个节点的状态:
-