1.安装前准备

1.1创建hadoop用户


首先创建hadoop用户组和用户,如果对linux命令不熟悉,可以参考 ​​javascript:void(0)​​中的命令。



addgroup hadoop //创建hadoop组
useradd hadoop -g hadoop -m //创建hadoop用户并加入hadoop组
passwd hadoop //设置hadoop用户密码


1.2下载hadoop安装程序


我所用的是hadoop1.0.4,也是目前比较稳定的版本,下载地址: ​​hadoop1.0.4​


下载完之后,把文件放在hadoop用户目录的software目录下,然后用tar命令解压缩(请确保是用hadoop用户解压缩,否则需要改变文件夹的用户和用户组):



tar -zxvf hadoop-1.0.4.tar.gz


Linux下Hadoop的安装(单机版)_hdfs


1.3安装ssh


请确保你的Linux系统中已经安装了ssh软件,一般的Linux发行版都已经在安装完操作系统之后自带ssh软件。如果没有,执行以下命令安装:



sudo apt-get install ssh


1.4安装rsync


请确保你的Linux中已经安装了rsync,不然,请执行以下命令安装:



sudo apt-get install rsync


1.5配置ssh免密码登录



ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

如果在配置ssh免密码登录的时候出现了ssh: connect to host localhost port 22: Connection refused错误,解决的办法如下:


第一步,在​​https://launchpad.net/ubuntu/lucid/i386/openssh-client/1:5.3p1-3ubuntu3​

下载文件并安装:$ sudo dpkg -i openssh-client_5.3p1-3ubuntu3_i386.deb 

第二步,在​​https://launchpad.net/ubuntu/lucid/i386/openssh-server/1:5.3p1-3ubuntu3​

下载文件并安装:$ sudo dpkg -i openssh-server_5.3p1-3ubuntu3_i386.deb 

第三步,在​​https://launchpad.net/ubuntu/lucid/i386/ssh/1:5.3p1-3ubuntu3​

下载文件并安装:$ sudo dpkg -i ssh_5.3p1-3ubuntu3_all.deb 


验证ssh免登录是否配置成功:

 

ssh localhost


 

出现如下信息,则说明ssh免登录配置成功:

Linux下Hadoop的安装(单机版)_ubuntu_02

1.6安装并配置JDK


JDK的安装和配置,请参考博文 中关于JDK的安装说明。



2.安装并配置单机版Hadoop

2.1修改hadoop-env.sh


在hadoop目录下的conf目录下,找到hadoop-env.sh文件,将JAVA_HOME配置进去:



vi conf/hadoop-env.sh

添加JAVA_HOME:


JAVA_HOME=/home/hadoop/software/jdk1.6.0_21


2.2修改hadoop的核心配置文件core-site.xml,配置HDFS的地址和端口号



vi conf/core-site.xml

添加如下内容:


<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>


2.3修改hadoop中HDFS的配置



vi conf/hdfs-site.xml

添加如下内容:


<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>


2.4修改hadoop中MapReduce的配置文件,配置的是JobTracker的地址和端口



vi conf//mapred-site.xml

添加如下内容:


<configuration>
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>
</configuration>


以上就是单机版Hadoop的最小化配置


2.5格式化一个新的分布式文件系统



bin/hadoop namenode -format


2.6启动hadoop



bin/start-all.sh


3.验证Hadoop是否安装成功




如果这两个页面能打开,说明你的hadoop已经安装成功了。


3.1运行WordCount例子


将start-all.sh文件放入hadoop的文件系统input目录下:



bin/hadoop fs -put start-all.sh /input

运行Wordount例子:


bin/hadoop jar hadoop-examples-1.0.4.jar  wordcount /input /output