linux主机上需要开启ssh服务,安装JDK,配置好环境变量。

下面创建hadoop用户,配置hadoop用户的环境变量。

hadoop用户下的.bash_profile 配置环境变量:

 

linux下架设伪分布式hadoop_架设伪分布式hadoop

上传hadoop-0.21.0.tar.gz到/home/hadoop/下,使用命令:tar -zxvf hadoop-0.21.0.tar.gz

解压缩hadoop文件

/home/hadoop/hadoop-0.21.0/conf下的文件

 

linux下架设伪分布式hadoop_hadoop_02

 

修改hadoop-env.sh文件(hadoop-env.sh文件位置:/home/hadoop/hadoop-0.21.0/conf)

 

在其中,加入hadoop用户使用的环境变量 :JAVA_HOME

 export JAVA_HOME=/usr/local/jdk

修改core-site.xml

 

linux下架设伪分布式hadoop_hadoop_04

修改hdfs-site.xml

 

linux下架设伪分布式hadoop_hadoop_05

 

linux下架设伪分布式hadoop_hadoop_06

下面进入hadoop的路径下,/home/hadoop/hadoop-0.21.0/bin

执行命令:./hadoop namenode -format

执行此命令的时候,可能报错Could not find the main class: org.apache.hadoop.hdfs.server.namenode.NameNode.  Program will exit.

解决方法:因为执行了错误的hadoop的目录,

再继续执行./start-all.sh

启动的时候,需要输入三次hadoop用户密码。

 

linux下架设伪分布式hadoop_架设伪分布式hadoop_07

进程启动成功。

hadoop架设成功标志:

 

http://192.168.168.224:50070  --hdfs监控页面

http://192.168.168.224:50030  --mapred监控页面

输入网址看能不能转出网页来。