用户配置:

User :root

Password:toor

2.创建新用户 student

Pwd: student

3.安装virtualbox的增强工具软件

4.系统默认安装的是openjdk 1.7.0.5

没有jps等工具可以使用。

但hadoop应该是可以在openjdk中使用的。

卸载openjdk,下载安装oracle jdk.

for i in $(rpm -qa | grep openjdk | grep -v grep) 
do 
 echo "Deleting rpm -> "$i 
 rpm -e --nodeps $i 
done

 

http://download.oracle.com/otn-pub/java/jdk/7u79-b15/jdk-7u79-linux-x64.tar.gz

wget命令在下载的时候不起作用,oracle网站需要认证。所以wget命令失效了。

手动下载oracle jdk.

tar -zxvf jdk-7u79-linux-x64.tar.gz
mkdir /usr/java
mv ./jdk1.7.0_79 /usr/java/

 

设置java环境变量

 

JAVA_HOME=/usr/java/jdk1.7.0_79
CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
PATH=$JAVA_HOME/bin:$CLASSPATH:$PATH
export JAVA_HOME CLASSPATH PATH

 

vi 如何快速跳转到文档末尾? shift+g
跳转至行尾:$
跳转至行首:0
跳转至文件首:gg

 

  1. 创建hadoop用户组以及用户: su 只能切换到管理员用户权限,不使用管理员的登陆脚本和搜索路径 su -  不但能切换到管理员权限而且使用管理员登陆脚本和搜索路径 原因是我切换用户的时候命令使用不正确。
1. 添加Hadoop用户和group 
groupadd hadoop 
useradd hadoop -g hadoop 
配置ssh免密码登录 
ssh-keygen -t rsa -P '' 
cat .ssh/id_rsa.pub >> .ssh/authorized_keys 
chmod 600 .ssh/authorized_keys 
  
scp .ssh/id_rsa.pub hadoop@master:/home/hadoop/id_rsa_01.pub  su 
visudo
add hadoop to sudo folders
sudo chkconfig sshd on
sudo chkconfig sshd status
sudo service sshd start

使用root用户把当前hadoop用户添加到sudo权限。

然后检查sshd服务是否启动,没有启动的话,添加到开机自动启动。并打开sshd服务,然后进行测试。

ssh localhost

而且当前设置只是ssh1,ssh2的更安全,命令稍加改动即可。

2.

cat /etc/sysconfig/network 
sudo vi /etc/sysconfig/network 
NETWORKING=yes 
NETWORKING_IPV6=no 
HOSTNAME=namenode01 
3.克隆另外三个硬盘: 
vboxmanage clonehd d:\hadoop\hdp_rm.vdi d:\hadoop\hdp_rm2.vdi 
vboxmanage clonehd d:\hadoop\hdp_rm.vdi d:\hadoop\hdp_dn1.vdi 
vboxmanage clonehd d:\hadoop\hdp_rm.vdi d:\hadoop\hdp_dn2.vdi 
创建另外的三个虚拟机 
4.修改hadoop的密码 
Root用户下 
Passwd Hadoop 
5.启动虚拟机 
配置虚拟机的网络地址并更新hosts 
配置为手动配置的IP地址,以防重启后变更。 
127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4 
::1 localhost localhost.localdomain localhost6 localhost6.localdomain6 
192.168.99.100 namenode01 
192.168.99.101 namenode02 
192.168.99.102 datanode01 
192.168.99.103 datanode02 
更新ssh公钥私钥,复制公钥到namenode01 
在namenode01上集成最全的公钥集合, 
然后分发到所有结点。测试免密码访问ssh的效果,保证其能正常访问。

6.关闭防火墙配置

7.

在namenode01,datanode01,datanode02上安装zookeeper 
wget http://apache.dataguru.cn/zookeeper/zookeeper-3.4.6/zookeeper-3.4.6.tar.gz 
配置zoo.cfg 
datadir 
和 
server信息 
配置环境变量 
vi .bashrc 
export HADOOP_HOME=/usr/hadoop26 
export ZK_HOME=/home/hadoop/zookeeper-3.4.6 
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME 
使环境变量生效: 
Source ~/.bashrc 
启动测试 
ZkServer.sh start 
Jps 
Netstat –an | grep 2181

CentOS 7.0默认使用的是firewall作为防火墙,这里改为iptables防火墙。

1、关闭firewall:

systemctl stop firewalld.service #停止firewall 
systemctl disable firewalld.service #禁止firewall开机启动 
二、关闭SELINUX 
vi /etc/selinux/config 
#SELINUX=enforcing #注释掉 
#SELINUXTYPE=targeted #注释掉 IT网,http://www.it.net.cn 
SELINUX=disabled #增加 Linux学习,http:// linux.it.net.cn 
:wq! #保存退出 
setenforce 0 #使配置立即生效 
通过检查zkServer.sh status的时候可能会发生问题,原因是我们的防火墙规则没有配好,

为了简便起见,直接关闭防火墙。如上所述。

 

格式化namenode失败:

Hadoop namenode –format 
Call From namenode01/192.168.99.100 to namenode01:8485 failed on connection exception: java.net.ConnectException: Connection refused; 
先启动journal node之后再格式化即可。

由于我们配置了QJM,所以我们需要先启动QJM的服务,启动顺序如下所示:

  1. 进入到DN节点,启动zk的服务:zkServer.sh start,之后可以输入zkServer.sh status查看启动状态,本次我们配置了三个DN节点,会出现一个leader和两个follower。输入jps,会显示启动进程:QuorumPeerMain
  2. 在NN节点上(选一台即可,这里我选择的是一台预NNA节点),然后启动journalnode服务,命令如下:hadoop-daemons.sh start journalnode。或者单独进入到每个DN输入启动命令:hadoop-daemon.sh start journalnode。输入jps显示启动进程:JournalNode
  3. 接着若是配置后,我们首次启动,需要格式化HDFS,命令如下:hadoop namenode –format
  4. 之后我们需要格式化ZK,命令如下:hdfs zkfc -formatZK
  5. 接着我们启动hdfs和yarn,命令如下:start-dfs.shstart-yarn.sh,我们在nna输入jps查看进程,显示如下:DFSZKFailoverControllerNameNodeResourceManager
  6. 接着我们在NNS输入jps查看,发现只有DFSZKFailoverController进程,这里我们需要手动启动NNS上的namenodeResourceManager进程,命令如下:hadoop-daemon.sh start namenodeyarn-daemon.sh start resourcemanager。需要注意的是,在NNS上的yarn-site.xml中,需要配置指向NNS,属性配置为rm2,在NNA中配置的是rm1。
  7. 最后我们需要同步NNA节点的元数据,命令如下:hdfs namenode –bootstrapStandby,若执行正常,日志最后显示如下信息