1.      配置主机的名称

master,slave1,slave2

2.      安装JDK:

3.      配置IP与主机名称的映射:

192.168.0.100 master

192.168.0.101 slave1

192.168.0.103 slave2

4.      配置ssh免password登陆:

Ssh-keygen –t rsa

5.      解压hadoop的安装文件

6.      改动hadoop-env.sh, core-site.xml, hdfs-site.xml, mapred-site.xml

7.      格式化分布式文件系统:

[hadoop@master hadoop-1.2.1]$bin/hadoop namenode -format

8.      启动守护进程:

[hadoop@master hadoop-1.2.1]$bin/start-all.sh

9.      检測守护进程的启动情况:

[hadoop@master hadoop-1.2.1]$/data/java/jdk1.6.0_13/bin/jps

master:

Slave1:

Slave2:

该命令也能够查看:

[hadoop@master hadoop-1.2.1]$ bin/hadoopdfsadmin -report

http://192.168.0.100:50070/dfshealth.jsp

​​


10.   问题:

A.主节点没有NameNode:须要又一次格式化,格式化前必须删除相关tmp文件。

B.从节点的DataNode无法启动,须要查看cat /data/hadoop/hadoop-1.2.1/logs 中的日志,查明无法启动的原因。

WARNorg.apache.hadoop.hdfs.server.datanode.DataNode: Invalid directory indfs.data.dir: Incorrect permission for /data /hadoop/data, expected: rwxr-xr-x,while actual: rwxrwxr-x该问题的解决方法是chmod 755  /data /hadoop/data。

​​

有问题百度还是比較靠谱的。能学到好多东西!!