一、背景

因为最近使用hadoop发现了一些问题,而且也没有太多的时间去对其本身进行修改,所以,在朋友的建议下采用了cloudera的CDH3版本。相对来说比较稳定和可靠,官网的地址如下:http://www.cloudera.com/

二、CentOS和JDK安装步骤

1、进入到centOS的官方网址http://isoredirect.centos.org/centos/5/isos/x86_64/

2、选一个镜像点击进去,下载CentOS-5.5-x86_64-bin-DVD.torrent种子。

3、用迅雷下载iso文件。

4、把该iso刻录成DVD成服务器系统安装盘。

5、用刻录好的系统安装盘启动服务器。

问题:如果服务器是8块硬盘,每块硬盘为500GB空间,约4TB容量。对于单逻辑硬盘超过2T以上的服务器,安装CentOS时,需要将分出一个小于2T的磁盘上,否则会报告“Your boot partition is on a disk using the GPT partitioning Scheme but this machines cannot boot using GPT。“

解决方案:重启服务器,用ctrl+H 进入到raid卡分区操作界面。设置成用一块硬盘作为系统盘,做raid0;剩下的7块硬盘作为另外一个区,做raid5。

6、安装jdk-6u24-linux-x64-rpm.bin,需要说明的是,尽可能的使用64位的JDK版本。

三、CDH3 Beta4 下载

1、进入到CDH3的官方下载网址http://archive.cloudera.com/cdh/3/

2、下载hadoop-0.20.2-CDH3B4/hadoop-0.20.2-CDH3B4.tar.gz和hbase-0.90.1-CDH3B4/hbase-0.90.1-CDH3B4.tar.gz。

四、CDH3 Beta4 安装

1、由于CDH3默认没法用root启动,会报错“May not run daemons as root. Please specify HADOOP_NAMENODE_USER “,所以需要创建新用户。

2、Hadoop要求所有机器上hadoop的部署目录结构要相同,并且都有一个相同的用户名的帐户,所以需要每台机器建一个同名的用户。

3、新建系统hadoop用户。

4、每台机器的用户名和密码都为hadoop。

5、命令:#adduser hadoop;#passwd hadoop,回车输入hadoop。

6、三台机器都拷贝一份hadoop-0.20.2-CDH3B4.tar.gz到hadoop用户下。

7、解压hadoop-0.20.2-CDH3B4.tar.gz。 tar –zxvf hadoop-0.20.2-CDH3B4.tar.gz –C /home/hadoop/cdh3。

8、在master上用户hadoop配置无密码登录本机和每个slave。

9、首先用hadoop用户登录每台机器(包括namenode),在/home/hadoop/目录下建立.ssh目录。

10、将目录.ssh权限设为:drwxr-xr-x,设置命令: chmod 755 .ssh。

11、用hadoop用户登录每台机器,修改/home/hadoop/.ssh/authorized_keys文件的权限为:-rw-r–r–,设置命令:$ cd /home/hadoop/.ssh,$ chmod 644 authorized_keys。

12、ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa,直接回车,完成后会在~/.ssh/生成两个文件:id_dsa 和id_dsa.pub。这两个是成对出现,类似钥匙和锁。

13、$ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys。

14、拷贝id_dsa.pub到其他的每个slave上,追加在authorized_keys文件中。

15、设置完成后,测试一下namenode到各个datanode节点的ssh链接,包括到本机,如果不需要输入密码就可以ssh登录,说明设置成功了。

16、启动hadoop,start-all.sh。

17、若datanode没启动,看logs,报错:

java.net.NoRouteToHostException: No route to host
        at sun.nio.ch.SocketChannelImpl.checkConnect(Native Method)
        at sun.nio.ch.SocketChannelImpl.finishConnect(SocketChannelImpl.java:567)
        at org.apache.hadoop.net.SocketIOWithTimeout.connect(SocketIOWithTimeout.java:206)
        at org.apache.hadoop.net.NetUtils.connect(NetUtils.java:408)
        at org.apache.hadoop.hdfs.server.datanode.DataXceiver.writeBlock(DataXceiver.java:338)
        at org.apache.hadoop.hdfs.server.datanode.DataXceiver.run(DataXceiver.java:122)

是防火墙的原因,运行如下命令:


临时关闭防火墙服务,重启后失效: su - #/etc/init.d/iptables stop 永久性关闭防火墙: 在根用户下输入setup,进入图形界面,选择Firewall configuration,进入下一界面,选择Security Level为Disabled,保存。重启机器即可。



18、接下来的步骤可以参考。

五、安装HBase

参考。