文章目录



节点规划:

zookeep

hmaster

hadoop01

hadoop02

hadoop03

1.搭建ZooKeeper集群

​参考ZooKeeper集群搭建​

2.搭建Hbase集群

2.1上传安装包

put c:/hbase-1.2.6-bin.tar.gz

2.2解压

tar -xzvf hbase-1.2.6-bin.tar.gz -C /home/hadoop/apps

2.3配置环境变量

因为第三台机上我装了hive,所以这里单独新建一个hbase的配置文件

sudo vi /etc/profile.d/hbase.sh

加入这两行

export HBASE_HOME=/home/hadoop/apps/hbase-1.2.6
export PATH=$PATH:$HBASE_HOME/bin

Hbase集群搭建_hdfs

重新加载一下配置文件

source /etc/profile.d/hbase.sh

2.4修改配置文件

进入到配置文件目录

cd /home/hadoop/apps/hbase-1.2.6/conf
2.4.1hbase-env.sh

先将注释打开,去掉#,修改JAVA_HOME的路径,在27行

export JAVA_HOME=/home/hadoop/apps/jdk1.8.0_73

Hbase集群搭建_hadoop_02

然后在128行修改zk的默认值,将值改为false,如图

127 # Tell HBase whether it should manage it's own instance of Zookeeper or not.
128 export HBASE_MANAGES_ZK=false

Hbase集群搭建_xml_03

2.4.2hbase-site.xml
vi hbase-site.xml

将下列内容复制到configuration标签中,可以按照需求修改参数

<property>
<!-- 指定 hbase 在 HDFS 上存储的路径 -->
<name>hbase.rootdir</name>
<value>hdfs://bd1906/user/hbase</value>
</property>

<property>
<!-- 指定 hbase 是分布式的 -->
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>

<property>
<!-- 指定 zk 的地址,多个用“,”分割 -->
<name>hbase.zookeeper.quorum</name>
<value>hadoop01:2181,hadoop02:2181,hadoop03:2181</value>
</property>
2.4.3hdfs-site.xml

将hadoop的hdfs-site.xml与core-site.xml文件拷贝到hbase的conf目录下(一定要注意最后有一个"."代表当前路径)

cp /home/hadoop/apps/hadoop-2.7.6/etc/hadoop/core-site.xml /home/hadoop/apps/hadoop-2.7.6/etc/hadoop/hdfs-site.xml .
2.4.4配置hbase的从节点regionservers

只需要这三个

hadoop01
hadoop02
hadoop03

Hbase集群搭建_hbase_04

2.4.5backup-masters

只需要一个

hadoop03

Hbase集群搭建_hdfs_05

2.5确定时间同步

date

Hbase集群搭建_hdfs_06

如果时间不同步

​参考9.同步服务器时间​

2.6远程发送hbase的安装包

scp -r hbase-1.2.6 hadoop02:/home/hadoop/apps/
scp -r hbase-1.2.6 hadoop03:/home/hadoop/apps/

2.7.远程发送配置文件

sudo scp /etc/profile.d/hbase.sh hadoop02:/etc/profile.d/
sudo scp /etc/profile.d/hbase.sh hadoop03:/etc/profile.d/

记得给三台虚拟机都重新加载一下

source /etc/profile.d/hbase.sh

2.8.启动

2.8.1启动zk
zkServer.sh start
2.8.2启动hdfs
start-dfs.sh
2.8.3启动hbase

这里我在hadoop01启动hbase

start-hbase.sh

可以看到starting master就是正常启动了

Hbase集群搭建_hadoop_07

然后在hadoop02测试一下能否正常启动Hmaster

hbase-daemon.sh start master

看一下进程

jps

Hbase集群搭建_hdfs_08

访问:http://hadoop02:16010/

Hbase集群搭建_hbase_09

访问:http://hadoop01:16010/

Hbase集群搭建_hadoop_10

出现如图所示则hbase安装成功