一、安装要求

  安装JDK
    yum -y install jdk(或手动安装)
  设置namenode节点到datanode节点的免密码登陆
    a. 本地免密码登录
     

# ssh localhost       #检测能否在本机上实现免密码登陆
      # ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa   #创建登陆的公钥和私钥,公钥放在id_dsa.pub中,私钥放在id_dsa中
      # cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys  #将公钥追加到已认证信息中
      # ssh localhost      #实现免密码登陆


    b. 跨主机免密码登陆
     

# scp ~/.ssh/id_dsa.pub  root@node2:~/.ssh/          #在namenode上执行
      # cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys  #将公钥追加到已认证信息中,在datanode上执行该操作


    c. 对所有的datanode执行上述操作
  设置域名解析(在所有的节点增加)
   

# vi /etc/hosts  # 增加节点对应节点,如果不加入节点则在配置文件中需要直接写节点的IP
      192.168.150.128  node1
      192.168.150.129  node2
      192.168.150.130  node3
      192.168.150.131  node4


    

二、安装

  由于hadoop有bin包,所以hadoop下载后只需要解压即可使用。
  版本hadoop-1.2.1
  namenode和datanode上软件包的放置位置要完全相同,否则在集群启动服务的时候会出现找不到文件的情况。
  在软件解压到/root/hadoop-1.2.1文件夹

三、配置  

核心模块的配置

#vi  /root/hadoop-1.2.1/conf/core-site.xml
    <configuration>
         <property>              <name>fs.default.name</name>     # namenode节点名
              <value>hdfs://node1:9000</value>  #namenode域名(或IP)和端口
         </property>
         <property>
              <name>hadoop.tmp.dir</name> #文件储存目录
              <value>/opt/hadoop-1.2</value>  #fs的放置位置
         </property>
    </configuration>
    其它具体配置可以查看./hadoop-1.2.1/docs的文档。
  #vi  /root/hadoop-1.2.1/conf/hdfs-site.xml
    <configuration>            <name>dfs.replication</name>  #block的副本数,不能超过datanode的数目
            <value>2</value>
    </configuration>
  #vi  /root/hadoop-1.2.1/conf/slaves #该文件设置datanode节点的域名(IP)
    node2
    node3
  #vi  /root/hadoop-1.2.1/conf/masters  #该文件设置secondarynamenode节点的域名(IP)
    node2   # 只要跟namenode不在同一台机器上即可
  
  #vi  /root/hadoop-1.2.1/conf/hadoop-env.sh  #设置运行环境    export JAVA_HOME=/usr/java/jdk1.7.0_79  # 只要设置jdk的目录即可

  在所有的节点上进行上述的相同配置。

四、测试

  

# /root/hadoop-1.2.1/bin/hadoop namenode -format    #进行格式化,创建dfs
  # /root/hadoop-1.2.1/bin/start-dfs.sh   #启动dfs服务  # jps  #查看启动的java进程(namenode上)
    
  # jps  #查看启动的java进程(datanode上)


  在浏览器上输入namenode的IP和端口,即可进入文件系统
   http://192.168.150.128:50070   注意:如果要进入子目录,那么要在windows上hosts文件也设置同样的域名解析,否则浏览器会提示错误,因为没有对应的ip时浏览器会访问外网。
  文件传输和执行java程序

# /root/hadoop-1.2.1/bin/hadoop -fs -put   file   input  #将file文件传输到文件系统的root用户下的input目录
    # /root/hadoop-1.2.1/bin/hadoop jar hadoop-examples-*.jar grep input output 'dfs[a-z.]+'  # 执行jar程序
    
    # /root/hadoop-1.2.1/bin/hadoop fs -get output output   获取并在本地文件系统中显示数据
    # cat output/*
    或 #/root/hadoop-1.2.1/bin/hadoop fs -cat output/*
  关闭进程
    # /root/hadoop-1.2.1/bin/stop-dfs.sh

五、总结  

  虽然说hdfs是文件系统,但本质上并没有格式化本机上的硬盘,所以其实只是硬盘上的一种特殊的文件储存格式,并且必须通过IP:PORT进行访问。实质上在配置并启动了集群之后,集群之间便会进行网络通信,并通过namenode的IP和指定端口(50070)对外提供访问。