用户配置:
User :root
Password:toor
2.创建新用户 student
Pwd: student
3.安装virtualbox的增强工具软件
4.系统默认安装的是openjdk 1.7.0.5
没有jps等工具可以使用。
但hadoop应该是可以在openjdk中使用的。
卸载openjdk,下载安装oracle jdk.
for i in $(rpm -qa | grep openjdk | grep -v grep)
do
echo "Deleting rpm -> "$i
rpm -e --nodeps $i
done
http://download.oracle.com/otn-pub/java/jdk/7u79-b15/jdk-7u79-linux-x64.tar.gz
wget命令在下载的时候不起作用,oracle网站需要认证。所以wget命令失效了。
手动下载oracle jdk.
tar -zxvf jdk-7u79-linux-x64.tar.gz
mkdir /usr/java
mv ./jdk1.7.0_79 /usr/java/
设置java环境变量
JAVA_HOME=/usr/java/jdk1.7.0_79
CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
PATH=$JAVA_HOME/bin:$CLASSPATH:$PATH
export JAVA_HOME CLASSPATH PATH
vi 如何快速跳转到文档末尾? shift+g
跳转至行尾:$
跳转至行首:0
跳转至文件首:gg
- 创建hadoop用户组以及用户: su 只能切换到管理员用户权限,不使用管理员的登陆脚本和搜索路径 su - 不但能切换到管理员权限而且使用管理员登陆脚本和搜索路径 原因是我切换用户的时候命令使用不正确。
1. 添加Hadoop用户和group
groupadd hadoop
useradd hadoop -g hadoop
配置ssh免密码登录
ssh-keygen -t rsa -P ''
cat .ssh/id_rsa.pub >> .ssh/authorized_keys
chmod 600 .ssh/authorized_keys
scp .ssh/id_rsa.pub hadoop@master:/home/hadoop/id_rsa_01.pub su
visudo
add hadoop to sudo folders
sudo chkconfig sshd on
sudo chkconfig sshd status
sudo service sshd start
使用root用户把当前hadoop用户添加到sudo权限。
然后检查sshd服务是否启动,没有启动的话,添加到开机自动启动。并打开sshd服务,然后进行测试。
ssh localhost
而且当前设置只是ssh1,ssh2的更安全,命令稍加改动即可。
2.
cat /etc/sysconfig/network
sudo vi /etc/sysconfig/network
NETWORKING=yes
NETWORKING_IPV6=no
HOSTNAME=namenode01
3.克隆另外三个硬盘:
vboxmanage clonehd d:\hadoop\hdp_rm.vdi d:\hadoop\hdp_rm2.vdi
vboxmanage clonehd d:\hadoop\hdp_rm.vdi d:\hadoop\hdp_dn1.vdi
vboxmanage clonehd d:\hadoop\hdp_rm.vdi d:\hadoop\hdp_dn2.vdi
创建另外的三个虚拟机
4.修改hadoop的密码
Root用户下
Passwd Hadoop
5.启动虚拟机
配置虚拟机的网络地址并更新hosts
配置为手动配置的IP地址,以防重启后变更。
127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4
::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
192.168.99.100 namenode01
192.168.99.101 namenode02
192.168.99.102 datanode01
192.168.99.103 datanode02
更新ssh公钥私钥,复制公钥到namenode01
在namenode01上集成最全的公钥集合,
然后分发到所有结点。测试免密码访问ssh的效果,保证其能正常访问。
6.关闭防火墙配置
7.
在namenode01,datanode01,datanode02上安装zookeeper
wget http://apache.dataguru.cn/zookeeper/zookeeper-3.4.6/zookeeper-3.4.6.tar.gz
配置zoo.cfg
datadir
和
server信息
配置环境变量
vi .bashrc
export HADOOP_HOME=/usr/hadoop26
export ZK_HOME=/home/hadoop/zookeeper-3.4.6
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME
使环境变量生效:
Source ~/.bashrc
启动测试
ZkServer.sh start
Jps
Netstat –an | grep 2181
CentOS 7.0默认使用的是firewall作为防火墙,这里改为iptables防火墙。
1、关闭firewall:
systemctl stop firewalld.service #停止firewall
systemctl disable firewalld.service #禁止firewall开机启动
二、关闭SELINUX
vi /etc/selinux/config
#SELINUX=enforcing #注释掉
#SELINUXTYPE=targeted #注释掉 IT网,http://www.it.net.cn
SELINUX=disabled #增加 Linux学习,http:// linux.it.net.cn
:wq! #保存退出
setenforce 0 #使配置立即生效
通过检查zkServer.sh status的时候可能会发生问题,原因是我们的防火墙规则没有配好,
为了简便起见,直接关闭防火墙。如上所述。
格式化namenode失败:
Hadoop namenode –format
Call From namenode01/192.168.99.100 to namenode01:8485 failed on connection exception: java.net.ConnectException: Connection refused;
先启动journal node之后再格式化即可。
由于我们配置了QJM,所以我们需要先启动QJM的服务,启动顺序如下所示:
- 进入到DN节点,启动zk的服务:zkServer.sh start,之后可以输入zkServer.sh status查看启动状态,本次我们配置了三个DN节点,会出现一个leader和两个follower。输入jps,会显示启动进程:QuorumPeerMain
- 在NN节点上(选一台即可,这里我选择的是一台预NNA节点),然后启动journalnode服务,命令如下:hadoop-daemons.sh start journalnode。或者单独进入到每个DN输入启动命令:hadoop-daemon.sh start journalnode。输入jps显示启动进程:JournalNode。
- 接着若是配置后,我们首次启动,需要格式化HDFS,命令如下:hadoop namenode –format。
- 之后我们需要格式化ZK,命令如下:hdfs zkfc -formatZK。
- 接着我们启动hdfs和yarn,命令如下:start-dfs.sh和start-yarn.sh,我们在nna输入jps查看进程,显示如下:DFSZKFailoverController,NameNode,ResourceManager。
- 接着我们在NNS输入jps查看,发现只有DFSZKFailoverController进程,这里我们需要手动启动NNS上的namenode和ResourceManager进程,命令如下:hadoop-daemon.sh start namenode和yarn-daemon.sh start resourcemanager。需要注意的是,在NNS上的yarn-site.xml中,需要配置指向NNS,属性配置为rm2,在NNA中配置的是rm1。
- 最后我们需要同步NNA节点的元数据,命令如下:hdfs namenode –bootstrapStandby,若执行正常,日志最后显示如下信息