hadoop的简单安装部署过程

 

为了做些实验,所以在自己笔记本电脑上装了个虚拟机,系统为CentOS6.2,JDK1.7,hadoop-1.0.1

 

为了简单起见,部署伪分布式,即仅有一个节点,这个节点既是Master,也是Slave,既是NameNode,也是DataNode,既是JobTracker,也是TaskTracker。

 

部署总体说明:

伪分布式部署比较简单,只需要搞定4个配置文件即可,分别是:

1.hadoop-env.sh       //用以指定JDK的位置 

2.core-site.xml    //核心配置,用以指定HDFS地址及端口号

3.hdfs-site.xml    //HDFS配置,可以指定备份数量,默认为3,伪分布式需要配置为1

4.mapred-site.xml     //用以配置JboTracker的地址及端口

 

配置完上述文件之后,还差两步:

1.格式化HDFS文件系统

2.启动并验证

 

正式开始:

1.配置hadoop-env.sh

由于忘记了JDK的位置,用java -verbose查了一下,找到/usr/lib/jvm/java-1.7.0-openjdk-1.7.0.85.x86_64/jre

 

因此,在hadoop-env.sh中写入如下一行(其实可以找到指定位置,读者可以自己发现)

export JAVA_HOME=/usr/lib/jvm/java-1.7.0-openjdk-1.7.0.85.x86_64/jre

 

2.配置core-site.xml

<?xmlversion="1.0"?>

<?xml-stylesheettype="text/xsl" href="configuration.xsl"?>

 

<!-- Putsite-specific property overrides in this file. -->

 

<configuration>

       <property>

              <name>fs.default.name</name>

              <value>hdfs://localhost:9000</value>

       </property>

</configuration>

 

//说明:其实其他部分已经有了,只需要自己敲入黑色加粗部分就可以了

 

3.配置hdfs-site.xml

<?xmlversion="1.0"?>

<?xml-stylesheettype="text/xsl" href="configuration.xsl"?>

 

<!-- Putsite-specific property overrides in this file. -->

 

<configuration>

       <property>

              <name>dfs.replication</name>

              <value>1</value>

       </property>

</configuration>

 

 

4.配置mapred-site.xml

<?xmlversion="1.0"?>

<?xml-stylesheettype="text/xsl" href="configuration.xsl"?>

 

<!-- Putsite-specific property overrides in this file. -->

 

<configuration>

       <property>

              <name>mapred.job.tracker</name>

              <value>localhost:9001</value>

       </property>

</configuration>

 

进入最后两步:

1.格式化hdfs

[root@wjz hadoop]# cd /usr/local/hadoop/bin    //进入hadoop的可执行文件bin目录

[root@wjz bin]# ./hadoop namenode -format  //执行格式化命令

 

2.启动并验证

[root@wjz bin]# ./start-all.sh 

 

打开浏览器验证,分别输入如下网址:

 

http://localhost:50030            (MapReduce的WEB页面)

http://localhost:50070            (HDFS的WEB页面)

 

----搞定,OK了