1,安装jkd
2,下载hadoop1.2安装包 使用命令并解压
3,配置环境变量,指定自己的jdk的版本和hadoop文件夹
vi /etc/profile
在文件末尾添加
JAVA_HOME=/usr/java/jdk1.6.0_30/
JRE_HOME=/usr/java/jdk1.6.0_30/jre
PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin
CLASSPATH=$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib/dt.jar
export JAVA_HOME
export JRE_HOME
export PATH
export CLASSPATH
export HADOOP_HOME=/home/chp_hadoop/hadoop-1.2.1
export PATH=$HADOOP_HOME/bin:$PATH
如图:
4,让环境变量生效
source /etc/profile
5,修改 hadoop-1.2.1/conf/hadoop-env.sh文件,指定JDK版本
6,主要配置个文件:core-site.xml、hdfs-site.xml、mapred-site.xml
配置 conf/core-site.xml:
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
配置 conf/hdfs-site.xml:
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
配置 conf/mapred-site.xml:
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>
</configuration>
7,配置SSH
在终端中输入ssh localhost如果需要输入密码则输入密码后运行以下两条命令,
ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
这是为了,配置自由登录hadoop的密码,第一句是产生,第二句是分发
8,用cd命令进入hadoop目录 输入bin/hadoop namenode -format进行格式化
9, 输入bin/start-all.sh启动
10,检测hadoop是否启动成功
输入 /usr/jdva/jdk1.6.0.30/bin/jps,查看进程状况
如果有这些进程,则表示hadoop启动成功
2760 SecondaryNameNode
2554 NameNode
2964 TaskTracker
2840 JobTracker
hadoop 1.2.1下载地址
http://pan.baidu.com/s/1qW5BWcs