hadoop的简单安装部署过程
为了做些实验,所以在自己笔记本电脑上装了个虚拟机,系统为CentOS6.2,JDK1.7,hadoop-1.0.1
为了简单起见,部署伪分布式,即仅有一个节点,这个节点既是Master,也是Slave,既是NameNode,也是DataNode,既是JobTracker,也是TaskTracker。
部署总体说明:
伪分布式部署比较简单,只需要搞定4个配置文件即可,分别是:
1.hadoop-env.sh //用以指定JDK的位置
2.core-site.xml //核心配置,用以指定HDFS地址及端口号
3.hdfs-site.xml //HDFS配置,可以指定备份数量,默认为3,伪分布式需要配置为1
4.mapred-site.xml //用以配置JboTracker的地址及端口
配置完上述文件之后,还差两步:
1.格式化HDFS文件系统
2.启动并验证
正式开始:
1.配置hadoop-env.sh
由于忘记了JDK的位置,用java -verbose查了一下,找到/usr/lib/jvm/java-1.7.0-openjdk-1.7.0.85.x86_64/jre
因此,在hadoop-env.sh中写入如下一行(其实可以找到指定位置,读者可以自己发现)
export JAVA_HOME=/usr/lib/jvm/java-1.7.0-openjdk-1.7.0.85.x86_64/jre
2.配置core-site.xml
<?xmlversion="1.0"?>
<?xml-stylesheettype="text/xsl" href="configuration.xsl"?>
<!-- Putsite-specific property overrides in this file. -->
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
//说明:其实其他部分已经有了,只需要自己敲入黑色加粗部分就可以了
3.配置hdfs-site.xml
<?xmlversion="1.0"?>
<?xml-stylesheettype="text/xsl" href="configuration.xsl"?>
<!-- Putsite-specific property overrides in this file. -->
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
4.配置mapred-site.xml
<?xmlversion="1.0"?>
<?xml-stylesheettype="text/xsl" href="configuration.xsl"?>
<!-- Putsite-specific property overrides in this file. -->
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>
</configuration>
进入最后两步:
1.格式化hdfs
[root@wjz hadoop]# cd /usr/local/hadoop/bin //进入hadoop的可执行文件bin目录
[root@wjz bin]# ./hadoop namenode -format //执行格式化命令
2.启动并验证
[root@wjz bin]# ./start-all.sh
打开浏览器验证,分别输入如下网址:
http://localhost:50030 (MapReduce的WEB页面)
http://localhost:50070 (HDFS的WEB页面)
----搞定,OK了