linux主机上需要开启ssh服务,安装JDK,配置好环境变量。
下面创建hadoop用户,配置hadoop用户的环境变量。
hadoop用户下的.bash_profile 配置环境变量:
上传hadoop-0.21.0.tar.gz到/home/hadoop/下,使用命令:tar -zxvf hadoop-0.21.0.tar.gz
解压缩hadoop文件
/home/hadoop/hadoop-0.21.0/conf下的文件
修改hadoop-env.sh文件(hadoop-env.sh文件位置:/home/hadoop/hadoop-0.21.0/conf)
在其中,加入hadoop用户使用的环境变量 :JAVA_HOME
export JAVA_HOME=/usr/local/jdk
修改core-site.xml
修改hdfs-site.xml
下面进入hadoop的路径下,/home/hadoop/hadoop-0.21.0/bin
执行命令:./hadoop namenode -format
执行此命令的时候,可能报错Could not find the main class: org.apache.hadoop.hdfs.server.namenode.NameNode. Program will exit.
解决方法:因为执行了错误的hadoop的目录,
再继续执行./start-all.sh
启动的时候,需要输入三次hadoop用户密码。
进程启动成功。
hadoop架设成功标志:
http://192.168.168.224:50070 --hdfs监控页面
http://192.168.168.224:50030 --mapred监控页面
输入网址看能不能转出网页来。