@[toc] 节点规划:
zookeep | hmaster | |
hadoop01 | √ | |
hadoop02 | √ | √ |
hadoop03 | √ | √ |
1.搭建ZooKeeper集群
参考ZooKeeper集群搭建
2.搭建Hbase集群
2.1上传安装包
put c:/hbase-1.2.6-bin.tar.gz
2.2解压
tar -xzvf hbase-1.2.6-bin.tar.gz -C /home/hadoop/apps
2.3配置环境变量
因为第三台机上我装了hive,所以这里单独新建一个hbase的配置文件
sudo vi /etc/profile.d/hbase.sh
加入这两行
export HBASE_HOME=/home/hadoop/apps/hbase-1.2.6
export PATH=$PATH:$HBASE_HOME/bin
重新加载一下配置文件
source /etc/profile.d/hbase.sh
2.4修改配置文件
进入到配置文件目录
cd /home/hadoop/apps/hbase-1.2.6/conf
2.4.1hbase-env.sh
先将注释打开,去掉#,修改JAVA_HOME的路径,在27行
export JAVA_HOME=/home/hadoop/apps/jdk1.8.0_73
然后在128行修改zk的默认值,将值改为false,如图
127 # Tell HBase whether it should manage it's own instance of Zookeeper or not.
128 export HBASE_MANAGES_ZK=false
2.4.2hbase-site.xml
vi hbase-site.xml
将下列内容复制到configuration标签中,可以按照需求修改参数
<property>
<!-- 指定 hbase 在 HDFS 上存储的路径 -->
<name>hbase.rootdir</name>
<value>hdfs://bd1906/user/hbase</value>
</property>
<property>
<!-- 指定 hbase 是分布式的 -->
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<!-- 指定 zk 的地址,多个用“,”分割 -->
<name>hbase.zookeeper.quorum</name>
<value>hadoop01:2181,hadoop02:2181,hadoop03:2181</value>
</property>
2.4.3hdfs-site.xml
将hadoop的hdfs-site.xml与core-site.xml文件拷贝到hbase的conf目录下(一定要注意最后有一个"."代表当前路径)
cp /home/hadoop/apps/hadoop-2.7.6/etc/hadoop/core-site.xml /home/hadoop/apps/hadoop-2.7.6/etc/hadoop/hdfs-site.xml .
2.4.4配置hbase的从节点regionservers
只需要这三个
hadoop01
hadoop02
hadoop03
2.4.5backup-masters
只需要一个
hadoop03
2.5确定时间同步
date
如果时间不同步 参考9.同步服务器时间
2.6远程发送hbase的安装包
scp -r hbase-1.2.6 hadoop02:/home/hadoop/apps/
scp -r hbase-1.2.6 hadoop03:/home/hadoop/apps/
2.7.远程发送配置文件
sudo scp /etc/profile.d/hbase.sh hadoop02:/etc/profile.d/
sudo scp /etc/profile.d/hbase.sh hadoop03:/etc/profile.d/
记得给三台虚拟机都重新加载一下
source /etc/profile.d/hbase.sh
2.8.启动
2.8.1启动zk
zkServer.sh start
2.8.2启动hdfs
start-dfs.sh
2.8.3启动hbase
这里我在hadoop01启动hbase
start-hbase.sh
可以看到starting master就是正常启动了
然后在hadoop02测试一下能否正常启动Hmaster
hbase-daemon.sh start master
看一下进程
jps
访问:http://hadoop02:16010/
访问:http://hadoop01:16010/