1. 配置主机的名称
master,slave1,slave2
2. 安装JDK:
3. 配置IP与主机名称的映射:
192.168.0.100 master
192.168.0.101 slave1
192.168.0.103 slave2
4. 配置ssh免password登陆:
Ssh-keygen –t rsa
5. 解压hadoop的安装文件
6. 改动hadoop-env.sh, core-site.xml, hdfs-site.xml, mapred-site.xml
7. 格式化分布式文件系统:
[hadoop@master hadoop-1.2.1]$bin/hadoop namenode -format
8. 启动守护进程:
[hadoop@master hadoop-1.2.1]$bin/start-all.sh
9. 检測守护进程的启动情况:
[hadoop@master hadoop-1.2.1]$/data/java/jdk1.6.0_13/bin/jps
master:
Slave1:
Slave2:
该命令也能够查看:
[hadoop@master hadoop-1.2.1]$ bin/hadoopdfsadmin -report
http://192.168.0.100:50070/dfshealth.jsp
10. 问题:
A.主节点没有NameNode:须要又一次格式化,格式化前必须删除相关tmp文件。
B.从节点的DataNode无法启动,须要查看cat /data/hadoop/hadoop-1.2.1/logs 中的日志,查明无法启动的原因。
WARNorg.apache.hadoop.hdfs.server.datanode.DataNode: Invalid directory indfs.data.dir: Incorrect permission for /data /hadoop/data, expected: rwxr-xr-x,while actual: rwxrwxr-x该问题的解决方法是chmod 755 /data /hadoop/data。
有问题百度还是比較靠谱的。能学到好多东西!!
!