• 七、HA启动脚本
  • 七、总结

前言

随着大数据技术的不断发展,Hadoop作为开源的大数据处理框架,已经广泛应用于各种场景中。然而,在大型生产环境中,Hadoop集群的稳定性和可用性显得尤为重要。为了保障Hadoop集群的高可用性(HA),我们需要采用一系列的技术和策略。本文将重点介绍Hadoop集群的HA高可用方案。

一、Hadoop集群HA高可用概述

Hadoop集群的HA高可用主要指的是在集群中的关键组件出现故障时,能够自动切换到其他节点继续提供服务,从而确保整个集群的稳定运行。

二、集群规模

Hadoop HA高可用集群规划 - 三节点(master, slave1, slave2)

组件

master

slave1

slave2

描述

Hadoop

NameNode

主节点

备节点


主备部署,共享存储同步元数据

SecondaryNameNode

主节点



辅助NameNode,定期合并fsimage和edits log

ResourceManager

主节点

备节点


主备部署,实现资源管理和任务调度

DataNode




存储实际数据,参与数据块的读写操作

NodeManager




负责管理容器生命周期,与ResourceManager通信

三、配置zookeeper集群

1.解压zookeeper安装包

tar -zxvf zookeeper-3.4.6.tar.gz -C /usr/local/src

2.设置环境变量

位置:vi /.bash_profile

添加环境变量

export ZK_HOME=/usr/local/src/zookeeper
export PATH=$PATH:$ZK_HOME/bin

3.配置zoo.cfg配置文件

先创建存放ZK的数据文件和配置文件的zkdata目录mkdir zkdata 配置zoo.cfg文件,在文件中添加下面内容

dataDir=/usr/local/src/zookeeper/zkdata
server.1=master:2888:3888
server.2=slave1:2888:3888
server.3=slave2:2888:3888

4.分发到其他节点

scp -r zookeeper/ root@slave2:/usr/local/src

5.修改myid 配置文件

在zkdata目录中创建myid并修改

echo 1>myid (master)
echo 2>myid	(slave1)
echo 3>myid (slave2)

—master

hadoop 高可用安装_学习

—slave1

hadoop 高可用安装_hadoop_02

—slave2

hadoop 高可用安装_hadoop_03

6.启动并查看zookeeper状态

位置:cd /usr/local/src/zookeeper/bin 启动:./zkServer.sh start 状态:./zkServer.sh status

----master

hadoop 高可用安装_大数据_04

----Slave1

hadoop 高可用安装_大数据_05

----Slave2

hadoop 高可用安装_学习_06


zookeeper配置完成!

四、配置HA高可用

1.解压hadoop安装包

tar -zxvf hadoop-3.2.2.tar.gz -C /usr/local/src

2.添加环境变量

export HADOOP_HOME=/usr/local/src/hadoop
export PATH=$PATH:$HADOOP_HOME/bin

3.修改配置文件

位置:/usr/local/src/hadoop/etc/hadoop (1)core-site.xml

<configuration>
<!-- hdfs分布式文件系统名字/地址 -->
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://mycluster</value>
    </property>
    <!--存放namenode、datanode数据的根路径 -->
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/usr/loal/src/hadoop/data</value>
    </property>
    <!-- 存放journalnode数据的地址 -->
    <property>
        <name>dfs.journalnode.edits.dir</name>
        <value>/usr/loal/src/hadoop/data/jn</value>
    </property>
    <!-- 列出运行 ZooKeeper 服务的主机端口对 -->
    <property>
        <name>ha.zookeeper.quorum</name>
        <value>master:2181,slave1:2181,slave2:2181</value>
 </property>
</configuration>

(2)hdfs-site.xml

<configuration>
<property>
<name>dfs.replication</name>
    <value>3</value>
</property>
<!-- 服务的逻辑名称,使用mycluster替换master:9000作为逻辑名称 -->
<property>
    <name>dfs.nameservices</name>
    <value>mycluster</value>
</property>
<!-- 两个namenode的名称 -->
<property>
    <name>dfs.ha.namenodes.mycluster</name>
    <value>nn1,nn2,nn3</value>
</property>
<!-- 两个namenode的rpc通信地址 -->
<property>
    <name>dfs.namenode.rpc-address.mycluster.nn1</name>
    <value>master:8020</value>
</property>
<property>
    <name>dfs.namenode.rpc-address.mycluster.nn2</name>
    <value>slave1:8020</value>
</property>
 <property>
    <name>dfs.namenode.rpc-address.mycluster.nn3</name>
    <value>slave2:8020</value>
</property>
<!-- web访问端口 -->
<property>
    <name>dfs.namenode.http-address.mycluster.nn1</name>
    <value>master:9870</value>
</property>

<property>
    <name>dfs.namenode.http-address.mycluster.nn2</name>
    <value>slave1:9870</value>
</property>
<property>
    <name>dfs.namenode.http-address.mycluster.nn3</name>
    <value>slave2:9870</value>
</property>

<property>
    <name>dfs.namenode.shared.edits.dir</name>
    <value>qjournal://master:8485;slave1:8485;slave2:8485/mycluster</value>
</property>
<!-- 切换namenode代理类 -->
<property>
    <name>dfs.client.failover.proxy.provider.mycluster</name>
 <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>

</property>

<!-- 关闭权限检查 -->
<property>
    <name>dfs.permissions.enable</name>
    <value>false</value>
</property>
<!-- 通过SSH连接到Active NameNode并终止进程 -->
<property>
    <name>dfs.ha.fencing.methods</name>
    <value>sshfence</value>
</property>

<!-- 隔离机制 -->
<property>
    <name>dfs.ha.fencing.ssh.private-key-files</name>
    <value>/root/.ssh/id_rsa</value>
</property>
<!-- 启动自动故障转移机制 -->
<property>
    <name>dfs.ha.automatic-failover.enabled</name>
    <value>true</value>
</property>
</configuration>

(3) hadoop-env.sh

export JAVA_HOME=/usr/local/jdk

(4) workers

master
slave1
salve2

(5)start-dfs.sh 和 stop-dfs.sh

位置:/usr/local/src/hadoop/sbin

HDFS_NAMENODE_USER=root
HDFS_JOURNALNODE_USER=root
HDFS_ZKFC_USER=root
HDFS_DATANODE_USER=root
HDFS_DATANODE_SECURE_USER=hdfs
HDFS_SECONDARYNAMENODE_USER=root

4.分发配置文件

scp -r hdfs-site.xml root@slave2:/usr/local/src/hadoop/etc/hadoop

5.1启动JournalNode