Hadoop

 

Server1.example.com 172.25.23.1 master

Server2.example.com 172.25.23.2 slave

Server3.example.com 172.25.23.3 slave

Server4.example.com 172.25.23.4 slave

Selinux iptables disabled 加解析(节点间可以ping) sshd enaled

 

Hadoop1.2.1

Master上进行存储计算等 单机

useradd -u 900 hadoop

echo westos | passwd --stdin hadoop

su - hadoop

1.安装java (若原来的机子上有java先卸载)

(1)

sh jdk-6u32-linux-x64.bin

mv jdk1.6.0_32 /home/hadoop

ln -s jdk1.6.0_32 java

(2)添加路径

vim .bash_profile

export JAVA_HOME=/home/hadoop/java

export CLASSPATH=.:$JAVA_HOME/lib:$JAVA_HOME/jre/lib

export PATH=$PATH:$JAVA_HOME/bin

source .bash_profile

2.设置hadoop

tar zxf hadoop-1.2.1.tar.gz

ln -s hadoop-1.2.1 hadoop

3.无密码ssh设置

ssh-keygen

ssh-copy-id 172.25.23.1

ssh 172.25.23.1  测试确保无密码

4.配置文件进行修改

(1)设置从节点

vim hadoop/conf/slave

172.25.23.1

(2)设置主节点

vim hadoop/conf/master

172.25.23.1

(3) 修改java的家路径

vim hadoop/conf/hadoop-env.sh

hadoop的基本搭建_hadoop 

(4) 修改Hadoop核心配置文件core-site.xml配置的是HDFS的地址和端口号指定 namenode

vim hadoop/conf/core-site.xml

hadoop的基本搭建_大数据_02 

(5) 指定文件保存的副本数

vim hadoop/conf/hdfs-site.xml

hadoop的基本搭建_大数据_03 

(6) 指定 jobtracker

vim hadoop/conf/mapred-site.xml

hadoop的基本搭建_hadoop_04 

5.开启服务

(1) 格式化一个新的分布式文件系统

bin/hadoop namenode -format   

(2) 启动 Hadoop 守护进程

bin/start-all.sh = bin/start-dfs.sh + bin/start-mapred.sh

(3) 查看进程

a)jps

hadoop的基本搭建_hadoop_05 

b)bin/hadoop dfsadmin -report

hadoop的基本搭建_hadoop_06
7.一些hadoop的常用命令 ( 类似于linux的命令只是在前面增加了hadoop特有的 )

bin/hadoop fs -ls

mkdir input

cp conf/*.xml input

bin/hadoop jar hadoop-examples-1.2.1.jar grep input output 'dfs[a-z.]+'

bin/hadoop fs -cat output/*

bin/hadoop fs -put conf/ input

bin/hadoop fs -get output output

 

8.浏览 NameNode JobTracker 的网络接口,它们的地址默认为:

NameNode http://172.25.23.1:50070/

hadoop的基本搭建_hadoop_07 

点击Browse the filesystem 下的 /user/hadoop/ 可看到上传的

hadoop的基本搭建_hadoop_08 

JobTracker http://172.25.23.1:50030/

hadoop的基本搭建_大数据_09 

 

 

分布式部署

先停掉master上的相关服务bin/stop-all.sh再删掉/tmp/*

slave

1.目录设置

useradd -u 900 hadoop

2.确保master可以和slave无密码连接

yum install -y rpcbind

/etc/init.d/rpcbind start (nfs的一个中介服务用来通知客户端)

3.同步数据 (nfs)

(1) master(分享节点root下进行)

/etc/init.d/nfs start  

vim /etc/exports

hadoop的基本搭建_hadoop_10 

exportfs -rv

(2) slave端挂载

yum install -y nfs-utils

showmount -e 172.25.23.1

hadoop的基本搭建_大数据_11 

mount 172.25.23.1:/home/hadoop /home/hadoop

 

Master

1.修改配置文件

(1) vim  hadoop/conf/slave

172.25.23.2

172.25.23.3

(2) vim hadoop/conf/hdfs-site.xml

datanade保存2

hadoop的基本搭建_大数据_12 

2.查看master能否与slave进行无密码连接

ssh 172.25.23.2

  若需要密码则进行如下操作

(1)进入hadoop用户查看权限显示(正确的应显示为hadoop)

hadoop的基本搭建_大数据_13 

(2)解析是否正确

(3)rpcbind是否开启

(4)若上述都正确则可进行

chkconfig rpcbind on

chkconfig rpcgssd on

chkconfig rpcidmapd on

chkconfig rpcsvcgssd on

reboot

hadoop的基本搭建_hadoop_14 

则可无密码连接

3.启动服务

(1) 格式化一个新的分布式文件系统

bin/hadoop namenode -format   

(2) 启动 Hadoop 守护进程

bin/start-all.sh

(3) 查看进程

master

hadoop的基本搭建_大数据_15 

slave

hadoop的基本搭建_大数据_16 

(4) 上传文件

bin/hadoop fs -put conf/ input

(5) 访问 172.25.23.150030

hadoop的基本搭建_hadoop_17 

可看到有2个节点

172.25.23.150070

hadoop的基本搭建_大数据_18 

有文件上传

 

新增一个从节点(172.25.23.4)且将文件转移

1.新增节点和已经配置好的从节点做相同的设置

yum install -y nfs-utils rpcbind

useradd -u 900 hadoop

/etc/init.d/rpcbind start

vim /etc/hosts

showmount -e 172.25.23.1

mount 172.25.23.1:/home/hadoop /home/hadoop

2.master端修改slaves

添加 172.25.23.4

3.在新增的从节点上启动服务加入集群

bin/hadoop-daemon.sh start datanode

bin/hadoop-daemon.sh start tasktracker

4.master上查看

bin/hadoop dfsadmin -report

......

hadoop的基本搭建_hadoop_19 

......

hadoop的基本搭建_大数据_20 

可看到新增的节点

5.均衡数据:

bin/start-balancer.sh

1)如果不执行均衡,那么 cluster 会把新的数据都存放在新的 datanode ,这样会降低 mapred的工作效率

2)设置平衡阈值,默认是 10%,值越低各节点越平衡,但消耗时间也更长bin/start-balancer.sh -threshold 5

 

6.数据转移删除

(1) vim hadoop/conf/mapred-site.xml

添加如下内容

hadoop的基本搭建_hadoop_21 

(2) 添加需要删除的主机名

 vim /home/hadoop/hadoop/conf/hostexclude

172.25.23.3

(3) bin/hadoop dfsadmin -refreshNodes

此操作会在后台迁移数据,等此节点的状态显示为 Decommissioned,就可以安全关闭了。可以通过bin/hadoop dfsadmin -report查看 datanode 状态

在做数据迁移时,此节点不要参与 tasktracker,否则会出现异常。

(4) 删除tasktracker可在172.25.23.3上直接停止(上边都没有node节点了)

 

恢复垃圾文件

1.编辑垃圾文件保留时间

vim hadoop/conf/core-site.xml

 

hadoop的基本搭建_hadoop_22 

2.测试

删除文件可以发现多出了一个 .Trash目录逐层进入该目录直到找到所删除的文件再将该文件mv到原来所在的目录里。可以发现 .Trash里面已经没有文件了。

hadoop的基本搭建_大数据_23 

 

 

Hadoop2.6.4

 

分布式部署(所有主从节点全部切换到su - hadoop )

 

在和1.2.1版本相同的环境目录nfs等都不变

本次配置使用的是1.2.1的机子(里面的host rpcbind nfs 为做修改)在重新配置2.6.4时先停掉所有的1.2.1版的hadoop服务删掉java等链接删除 /tmp/下的文件等

二Java配置

2.6.4的版本要求67java版本

1.下载java安装包 (hadoop的家目录下)

jdk-7u79-linux-x64.tar.gz

tar zxf jdk-7u79-linux-x64.tar.gz

ln -s jdk1.7.0_79/ java

2.配置java路径 (1.2的配置相同)

3.查看 版本号java -version

hadoop的基本搭建_hadoop_24 

Hadoop的配置

cd hadoop/etc/hadoop

1. vim core-site.xml

hadoop的基本搭建_大数据_25 

2. vim hdfs-site.xml

hadoop的基本搭建_hadoop_26 

3. cp mapred-site.xml.template mapred-site.xml

vim mapred-site.xml

hadoop的基本搭建_hadoop_27 

 

4. vim yarn-site.xml

hadoop的基本搭建_hadoop_28 

5. vim yarn-env.sh

hadoop的基本搭建_hadoop_29 

6. vim etc/hadoop/hadoop-env.sh

hadoop的基本搭建_hadoop_30 

7. vim slaves

172.25.23.2

172.25.23.3

172.25.23.4

四启动服务

1.格式化

tar xf hadoop-native-64-2.6.0.tar -C hadoop/lib/native lib中最好将原来的另外保存或删除将库文件改成64位的

bin/hdfs namenode -format

2.开启服务

sbin/start-dfs.sh  sbin/start-yarn.sh

3.查看进程

master

hadoop的基本搭建_hadoop_31 

slave

hadoop的基本搭建_大数据_32 

 

五、上传文件

1.创建保存的目录( V1版本是自动创建的 )

 bin/hdfs dfs -mkdir /user

 bin/hdfs dfs -mkdir /user/hadoop 

 

2.上传文件

 mkdir input

cp etc/hadoop/*.xml input

bin/hdfs dfs -put input

bin/hadoop jar hadoop-examples-1.2.1.jar wordcount input output bin/hadoop jar hadoop-examples-1.2.1.jar wordcount input output

 

3.访问

172.25.23.1:8088

hadoop的基本搭建_hadoop_33

 

172.25.23.1:50070

将后面的.jsp改成 .html即可访问该页面

hadoop的基本搭建_hadoop_34 

 

 

 

 问题

1.datanade没有启动

在关闭节点时会发现 no datanade to stop

hadoop的基本搭建_大数据_35 

每次格式化后都会创建一个namenodeIDtmp下包含了上次的IDnamenode - format清除了namenode下的数据但是没有清空datanade下的数据导致启动失败因此每次格式化后都要清除掉主从节点下的/tmp/*的所有数据。

 

2.namenode in safe mode

执行bin/hadoop dfsadmin -safemode leave 即可

 

3.Exceeded MAX_FAILED_UNIQUE_FETCHES

这是因为程序中打开的文件太多了一般系统默认普通用户不得超过1024

hadoop的基本搭建_大数据_36 

可以切换到root修改 /etc/security/limits.conf

添加 hadoop  -  nproc  4096

  hadoop  -  nofile  65535

- 可代表的是软链接和硬链接 再切换到 hadoop 查看

hadoop的基本搭建_大数据_37 

 

4. vim hadoop/conf/core-site.xml

(2.6.4下配置hadoop.tmp.dir参数)

<configuration>

       <property>

               <name>fs.defaultFS</name>

               <value>hdfs://172.25.23.1:9000</value>

     </property>

  <property>

               <name>hadoop.tmp.dir</name>

               <value>/home/hadoop/tmp</value>

     </property>

<property>

           <name>dfs.namenode.name.dir</name>

           <value>/home/hadoop/tmp/namedir</value>

     </property>

<property>

           <name>dfs.datanade.data.dir</name>

           <value>/home/hadoop/tmp/datadir</value>

     </property>

</configuration>

若没有配置这些参数则默认的临时目录是在/tmp/下而/tmp/目录每次重启都会清空必须重新format才可以