1.下载hadoop-2.5.1,存放根目录

安装hadoop图文_图文


2.通过tar -zxvf 包名 来进行解压

安装hadoop图文_图文_02

安装hadoop图文_安装_03


3.通过mv命令将解压后的hadoop包移动到/home下

安装hadoop图文_图文_04

安装hadoop图文_安装_05


4.修改hadoop-en.sh配置文件,添加jdk的安装目录,操作如下图所示

安装hadoop图文_图文_06

安装hadoop图文_hadoop_07

安装hadoop图文_安装_08

安装hadoop图文_hadoop_09


5.修改core-site.xml配置文件,添加namenode的配置信息

安装hadoop图文_安装_10

安装hadoop图文_安装_11


6.修改hdfs-site.xml配置文件,添加secondarynamenode的配置信息

安装hadoop图文_图文_12

安装hadoop图文_hadoop_13


7.修改slaves配置文件,添加datanode节点的配置信息

安装hadoop图文_安装_14

安装hadoop图文_图文_15


8.配置masters的secondarynode的主机名

安装hadoop图文_图文_16

安装hadoop图文_hadoop_17


9.将node1上的安装目录hadoop复制到其他的节点

安装hadoop图文_图文_18

安装hadoop图文_图文_19

安装hadoop图文_安装_20

安装hadoop图文_安装_21


10.将node1上的hosts文件复制到其他节点hosts文件所在目录/etc/hosts

安装hadoop图文_图文_22

安装hadoop图文_hadoop_23

安装hadoop图文_图文_24

安装hadoop图文_图文_25

安装hadoop图文_图文_26


11.将hadoop的安装目录添加到系统环境变量

安装hadoop图文_hadoop_27

安装hadoop图文_图文_28


12.将环境变量文件.bash_profile复制到其他节点

安装hadoop图文_安装_29

安装hadoop图文_hadoop_30

安装hadoop图文_图文_31

安装hadoop图文_安装_32


13.在node1上重新加载bash_profile

安装hadoop图文_图文_33


14.通过hdfs namenode -format格式化namenode节点(node1是namenode节点)

安装hadoop图文_图文_34

安装hadoop图文_hadoop_35


15.通过start-dfs.sh命令启动hadoop

安装hadoop图文_图文_36

安装hadoop图文_hadoop_37


16.通过http://192.168.2.136:50070/访问namenode的监控页面(192.168.2.136是node1)

安装hadoop图文_图文_38


17.通过http://192.168.2.137:50090访问secondarynamenode的监控页面(192.168.2.137是node2)

安装hadoop图文_图文_39


18.说明

安装前
    检查jdk版本是否与hadoop匹配
    检查节点时间是否一致,时间相差不要超过30秒
    免密码登录是否设置
    
到此hadoop的简单安装与配置完成
笔者在这里使用的是虚拟机来安装这些环境
node1 安装namenode节点
node2 安装secondarynamenode节点
node3 安装datanode节点
node4 安装datanode节点
node5 安装datanode节点