配置HBase时,首先考虑的肯定是Hbase版本号与你所装的hadoop版本号是否匹配。这一点我在之前



的博客中已经说明清楚,hadoop版本号与hbase版本号的匹配度,那是官方提供的。以下的实验就是本人没參照版本号匹配 尝试投机的方法。出现了错误。



版本号说明:

hadoop1.1.2

hbase-0.94.7(lib下的是hadoop-core-1.0.4.jar)

jdk 1.6.0.24

一、查看hadoop版本号和hbase的版本号是否匹配(这里出现错误,这步可省略)

假设不匹配,可将hadoop下的hadoop-core-*的jar包复制替换hbase/lib下的hadoop-core-*的jar包。

我的hadoop版本号是hadoop-1.1.2的

hadoop 版本对应 hive hadoop对应的hbase版本_java


Hbase下lib的版本号是

hadoop 版本对应 hive hadoop对应的hbase版本_大数据_02


所以覆盖jar包:

hadoop 版本对应 hive hadoop对应的hbase版本_版本号_03




二、改动hbase-env.xml的配置

a) 指定jdk路劲和hadoop下conf的路径

hadoop 版本对应 hive hadoop对应的hbase版本_hadoop 版本对应 hive_04


b)  打开hbase对zookeeper的管理

hadoop 版本对应 hive hadoop对应的hbase版本_大数据_05




三、改动hbase-site.xml文件

a) 将hbase/src/main/resource/ 下的hbase-default.xml拷贝到hbase/conf文件夹下。


b) 改动hbase的根文件夹

hadoop 版本对应 hive hadoop对应的hbase版本_版本号_06

注:根文件夹路劲是建在hdfs上的


c) 将分布式的配置设成true,这样hbase就明确我们是做分布式。


d) 改动hbase的暂时文件夹


e)配置zookeeper执行的的机器,通常设置是基数个


f)配置zookeeper存放数据的文件夹




四、改动conf/regionservers.xml

去掉localhost,加入       Slave1



五、将配置好的hbase分发到slave1和slave2的上

a) Scp  -r  hbase  yao@slave1:/home/yao/

b) Scp  -r  hbase  yao@slave2:/home/yao/



六、配置vi /etc/profile下的文件(每台机器都需这样配置):

a) export  HBASE_HOME=/home/yao/hbase

   export  PATH=$PATH:$HBASE_HOME/bin



七、启动hbase

a) Start-hbase.sh 

出错了:报的是版本号不兼容。


hadoop 版本对应 hive hadoop对应的hbase版本_java_07



Hbase启不启来。多方考证原来是我想多了:

两个问题:1)一開始不须要将hbase中的jar包替换掉。由于他们兼容。

2)这个错误是我懒得因素,将hbase/src/main/resource/ 下的hbase-default.xml拷贝到hbase/conf文件夹下时。仅仅配置了我须要的,其他的没有删除,我去,它就报了hbase-default啥啥啥的错误。



b) 上述两个错误都更改后,就能够启动了。

hadoop 版本对应 hive hadoop对应的hbase版本_大数据_08

Slave1上:


Slave2 :

hadoop 版本对应 hive hadoop对应的hbase版本_java_09


关闭hbase:


这里关闭时,省略号一直不断的话,非常可能就是配置错误了。

你能够到hbase的根文件夹下的log文件查看日志信息,发现错误。




转载于:


配置HBase时,首先考虑的肯定是Hbase版本号与你所装的hadoop版本号是否匹配。这一点我在之前



的博客中已经说明清楚,hadoop版本号与hbase版本号的匹配度,那是官方提供的。以下的实验就是本人没參照版本号匹配 尝试投机的方法。出现了错误。



版本号说明:

hadoop1.1.2

hbase-0.94.7(lib下的是hadoop-core-1.0.4.jar)

jdk 1.6.0.24

一、查看hadoop版本号和hbase的版本号是否匹配(这里出现错误,这步可省略)

假设不匹配,可将hadoop下的hadoop-core-*的jar包复制替换hbase/lib下的hadoop-core-*的jar包。

我的hadoop版本号是hadoop-1.1.2的

hadoop 版本对应 hive hadoop对应的hbase版本_java


Hbase下lib的版本号是

hadoop 版本对应 hive hadoop对应的hbase版本_大数据_02


所以覆盖jar包:

hadoop 版本对应 hive hadoop对应的hbase版本_版本号_03




二、改动hbase-env.xml的配置

a) 指定jdk路劲和hadoop下conf的路径

hadoop 版本对应 hive hadoop对应的hbase版本_hadoop 版本对应 hive_04


b)  打开hbase对zookeeper的管理

hadoop 版本对应 hive hadoop对应的hbase版本_大数据_05




三、改动hbase-site.xml文件

a) 将hbase/src/main/resource/ 下的hbase-default.xml拷贝到hbase/conf文件夹下。


b) 改动hbase的根文件夹

hadoop 版本对应 hive hadoop对应的hbase版本_版本号_06

注:根文件夹路劲是建在hdfs上的


c) 将分布式的配置设成true,这样hbase就明确我们是做分布式。


d) 改动hbase的暂时文件夹


e)配置zookeeper执行的的机器,通常设置是基数个


f)配置zookeeper存放数据的文件夹




四、改动conf/regionservers.xml

去掉localhost,加入       Slave1



五、将配置好的hbase分发到slave1和slave2的上

a) Scp  -r  hbase  yao@slave1:/home/yao/

b) Scp  -r  hbase  yao@slave2:/home/yao/



六、配置vi /etc/profile下的文件(每台机器都需这样配置):

a) export  HBASE_HOME=/home/yao/hbase

   export  PATH=$PATH:$HBASE_HOME/bin



七、启动hbase

a) Start-hbase.sh 

出错了:报的是版本号不兼容。


hadoop 版本对应 hive hadoop对应的hbase版本_java_07



Hbase启不启来。多方考证原来是我想多了:

两个问题:1)一開始不须要将hbase中的jar包替换掉。由于他们兼容。

2)这个错误是我懒得因素,将hbase/src/main/resource/ 下的hbase-default.xml拷贝到hbase/conf文件夹下时。仅仅配置了我须要的,其他的没有删除,我去,它就报了hbase-default啥啥啥的错误。



b) 上述两个错误都更改后,就能够启动了。

hadoop 版本对应 hive hadoop对应的hbase版本_大数据_08

Slave1上:


Slave2 :

hadoop 版本对应 hive hadoop对应的hbase版本_java_09


关闭hbase:


这里关闭时,省略号一直不断的话,非常可能就是配置错误了。

你能够到hbase的根文件夹下的log文件查看日志信息,发现错误。