1,安装jkd

2,下载hadoop1.2安装包 使用命令并解压

3,配置环境变量,指定自己的jdk的版本和hadoop文件夹

vi /etc/profile

在文件末尾添加

JAVA_HOME=/usr/java/jdk1.6.0_30/

JRE_HOME=/usr/java/jdk1.6.0_30/jre

PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin

CLASSPATH=$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib/dt.jar

export JAVA_HOME

export JRE_HOME

export PATH

export CLASSPATH


export HADOOP_HOME=/home/chp_hadoop/hadoop-1.2.1

export PATH=$HADOOP_HOME/bin:$PATH


如图:

Hadoop 1.2.1安装_Hadoop 1.2.1安装


4,让环境变量生效

      source /etc/profile

5,修改 hadoop-1.2.1/conf/hadoop-env.sh文件,指定JDK版本

Hadoop 1.2.1安装_Hadoop 1.2.1安装_02


6,主要配置个文件:core-site.xml、hdfs-site.xml、mapred-site.xml

配置  conf/core-site.xml: 

<configuration> 

<property> 

<name>fs.default.name</name> 

<value>hdfs://localhost:9000</value> 

</property> 

</configuration> 

配置  conf/hdfs-site.xml: 

<configuration> 

<property> 

<name>dfs.replication</name> 

<value>1</value> 

</property> 

</configuration> 


配置  conf/mapred-site.xml: 

<configuration> 

<property> 

<name>mapred.job.tracker</name> 

<value>localhost:9001</value> 

</property> 

</configuration> 


7,配置SSH

在终端中输入ssh localhost如果需要输入密码则输入密码后运行以下两条命令,

ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa 

cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

这是为了,配置自由登录hadoop的密码,第一句是产生,第二句是分发


8,用cd命令进入hadoop目录  输入bin/hadoop namenode -format进行格式化


9, 输入bin/start-all.sh启动


10,检测hadoop是否启动成功

输入 /usr/jdva/jdk1.6.0.30/bin/jps,查看进程状况

如果有这些进程,则表示hadoop启动成功

2760 SecondaryNameNode

2554 NameNode

2964 TaskTracker

2840 JobTracker

Hadoop 1.2.1安装_Hadoop 1.2.1安装_03




hadoop 1.2.1下载地址

http://pan.baidu.com/s/1qW5BWcs