1. 点击安装位置,选⾃动。或者⼿动(/boot 1g ext4、swap 4g xfs、/ 35g xfs)

Hadoop 集群扩容节点后不往新节点写入数据_学习

Hadoop 集群扩容节点后不往新节点写入数据_大数据_02

Hadoop 集群扩容节点后不往新节点写入数据_大数据_03

Hadoop 集群扩容节点后不往新节点写入数据_面试_04

  1. ⽹络和主机名,我们做如下的更改:

打开以太⽹,这样在启动时就使⽹卡处于激活状态。

Hadoop 集群扩容节点后不往新节点写入数据_大数据_05

主机名改成hadoop106,点应用

IP:192.168.100.106,子网掩码:255.255.255.0,网关:192.168.100.2,DNS:192.168.100.2。

Hadoop 集群扩容节点后不往新节点写入数据_hadoop_06

9.然后就点开始安装,在这个期间创建root密码123123,由于我们的密码不符合系统安全要求,所以需要点击两次完成。等进度条⾛完,就可以点重启了。此时CentOS7安装完成并启动,等待我们输⼊账户,密码。

Hadoop 集群扩容节点后不往新节点写入数据_IPV6_07

此时可打开 mobaxterm 新建session 输⼊192.168.100.106 连接

Hadoop 集群扩容节点后不往新节点写入数据_hadoop_08

  1. 安装 rsync yum -y install rsync
  2. 安装 nano yum -y install nano
  3. 安装 ntpd yum -y install ntp

Hadoop 集群扩容节点后不往新节点写入数据_hadoop_09

配置centos7
  1. 关闭防⽕墙,集群⼀般搭建在局域⽹内,公司在外部建⽴专业的防⽕墙,为了⽅便集群之间通信,请关闭集群中各节点的防⽕墙。

·在root⽤户下直接关闭防⽕墙 systemctl stop firewalld.service

· 禁⽌firewall开机启动 systemctl disable firewalld.service

· 关闭SELinux命令(永久关闭) nano /etc/selinux/config 注释掉下面两行:

#SELINUX=enforcing

 SELINUX=disabled

 #SELINUXTYPE=targeted

重启

  • 查看防⽕墙状态 systemctl status firewalld

Hadoop 集群扩容节点后不往新节点写入数据_hadoop_10

  1. 在/opt ⽬录下创建 module(程序⽂件夹)、software(安装包) ⽂件夹

[root@hadoop100 ~]# mkdir /opt/module

[root@hadoop100 ~]# mkdir /opt/software

Hadoop 集群扩容节点后不往新节点写入数据_hadoop_11

2**.**在Hadoop106节点安装JDK、Hadoop

·安装JDK
  1. 将jdk-8u341-linux-x64.tar.gz 利⽤xftp上传到/opt/software
  2. 解压jdk到/opt/module⽂件夹

[root@hadoop100 ~]# tar -zxvf /opt/software/jdk-8u341-linux-x64.tar.gz -C /opt/module/

  1. nano /etc/profile.d/my_path.sh ⽂件,输⼊
#JAVA_HOME

export JAVA_HOME=/opt/module/jdk1.8.0_341

export PATH=$PATH:$JAVA_HOME/bin
  1. source ⼀下 /etc/profile ⽂件,让新的环境变量 PATH ⽣效

[root@hadoop100 ~]# source /etc/profile

  1. 检验⼀下成功不

[root@hadoop100 ~]# java -version

·安装Hadoop
  1. 将hadoop-3.3.3.tar.gz利⽤xftp上传到/opt/software
  2. 解压hadoop到/opt/module⽂件夹

[root@hadoop100 ~]# tar -zxvf /opt/software/hadoop-3.3.3.tar.gz -C /opt/module/

  1. 在 /etc/profile.d/my_path.sh ⽂件,加⼊下⾯内容
#HADOOP_HOME

export HADOOP_HOME=/opt/module/hadoop-3.3.3

export PATH=$PATH:$HADOOP_HOME/bin

export PATH=$PATH:$HADOOP_HOME/sbin

Hadoop 集群扩容节点后不往新节点写入数据_学习_12

  1. source ⼀下 /etc/profile ⽂件,让新的环境变量 PATH ⽣效

[root@hadoop100 ~]# source /etc/profile

Hadoop 集群扩容节点后不往新节点写入数据_面试_13

  1. 测试

[root@hadoop100 ~]# hadoop version

·新增ens37网卡
  1. 关闭 hadoop106
  2. 右击虚拟机选项卡 -> 配置 -> 添加 -> ⽹络适配器 -> 改成桥接
  3. 启动 hadoop106
  4. nmcli connection add type ethernet con-name ens37 ifname ens37 autoconnect yes
  5. nano /etc/sysconfig/network-scripts/ifcfg-ens37
  6. 更改 ifcfg-ens37 ⽂件
TYPE=Ethernet

PROXY_METHOD=none

BROWSER_ONLY=no

BOOTPROTO=static

DEFROUTE=yes

IPV4_FAILURE_FATAL=no

IPV6INIT=yes

IPV6_AUTOCONF=yes

IPV6_DEFROUTE=yes

IPV6_FAILURE_FATAL=no

IPV6_ADDR_GEN_MODE=stable-privacy

NAME=ens37

UUID=59021522-3de9-492b-9308-b6ab7596aceb

DEVICE=ens37

ONBOOT=yes

IPADDR=10.227.x.1y6

NETMASK=255.255.254.0

注:

x:班级号,7班是2或8班是3

y:组号,1-10

service network start

Hadoop 集群扩容节点后不往新节点写入数据_学习_14

·Hadoop101配置
  1. 打开 hadoop101完全分布式新增hadoop106节点.md 2023-12-18
  2. nano /etc/hosts 加⼊

10.227.x.1y6 hadoop106

注:x:班级号,7班是2或8班是3;y:组号,1-10

    3. nano $HADOOP_HOME/etc/hadoop/workers 加⼊ hadoop106
    4. ssh-copy-id -i ~/.ssh/id_rsa.pub hadoop106
    5. rsync -av