一、前期准备

1. 三台主机都需要安装好jdk

2. 三台主机都要配置好zookeeper

3. 准备好kafka压缩包

二、kafka集群的安装

1. 上传压缩包

2. 解压

 3. 创建消息目录

4. 修改server.properties文件

5. 分发 kafka安装目录

6. 修改HadoopSlave01,HadoopSlave02下的kafka配置文件server.properties

7. 配置环境变量

7. 启动kafka集群


一、前期准备

主机名

用户

安装路径

HadoopMaster

hadoop

 /home/hadoop/software/kafka_2.11-2.3.1/

HadoopSlave01

hadoop

 /home/hadoop/software/kafka_2.11-2.3.1/

HadoopSlave02

hadoop

 /home/hadoop/software/kafka_2.11-2.3.1/

1. 三台主机都需要安装好jdk


2. 三台主机都要配置好zookeeper


3. 准备好kafka压缩包

kafka2.11下载链接:http://链接:https://pan.baidu.com/s/1FJp6eZ4PWhQ9CTeU0YqfOA?pwd=g0c2

二、kafka集群的安装

1. 上传压缩包

将kafka_2.11-2.3.1.tgz上传到HadoopMaster主机的/home/hadoop/software/下

2. 解压

cd /home/hadoop/software/
tar -zxvf kafka_2.11-2.3.1.tgz  
#默认将kafka_2.11-2.3.1.tgz解压到/home/hadoop/software/目录下

 3. 创建消息目录

cd /home/hadoop/software/kafka_2.11-2.3.1/
mkdir kafka-logs

4. 修改server.properties文件

cd /home/hadoop/software/kafka_2.11-2.3.1/config
vi server.properties
# 修改如下参数
broker.id=0 
listeners=PLAINTEXT://HadoopMaster:9092
log.dirs=/home/hadoop/software/kafka_2.11-2.3.1/kafka-logs
zookeeper.connect=HadoopMaster:2181,HadoopSlave01:2181,HadoopSlave02:2181


找对对应的信息进行修改即可
注意不是直接将这些信息复制到server.properties里,server.properties文件里边已经有对应的信息,我们进行修改即可
其中listeners=PLAINTEXT://HadoopMaster:9092这里需要自行取消注释

注:

 broker.id:集群内全局唯一标识符,每一个节点上需要设置不同的值(值可以随机但是不能相同)

listeners:这个是与本级相关的,需要每个节点设置为自己的主机名或者ip

log.dirs:存放kafka消息,也就是之前创建的kafka-logs目录

zookeeper.connect: 配置zookeeper集群的地址(主机名:2081,主机名:2181,主机名:2181—中间用逗号隔开,2181是默认的)

5. 分发 kafka安装目录

scp -r /home/hadoop/software/kafka_2.11-2.3.1/   HadoopSlave01:~/software/
scp -r /home/hadoop/software/kafka_2.11-2.3.1/   HadoopSlave02:~/software/

6. 修改HadoopSlave01,HadoopSlave02下的kafka配置文件server.properties

分别HadoopSlave01,HadoopSlave02中的server.properties配置文件中的 broker.id 和listeners 参数

#HadoopSave01修改如下

broker.id=1
listeners=PLAINTEXT://HadoopSave01:9092

#HadoopSave02修改如下
broker.id=2
listeners=PLAINTEXT://HadoopSave01:9092

#其中broker.id的1 和 2 是任意的,只要不重复就可以

7. 配置环境变量

export KAFKA_HOME=/home/hadoop/software/kafka_2.11-2.3.1
export PATH=$PATH:$KAFKA_HOME/bin

注:三台都要分别配置环境变量

       /home/hadoop/software/kafka_2.11-2.3.1对应换成自己的安装路径

7. 启动kafka集群

 1. 启动kafka集群之前要先启动zookeeper集群(三台都需要启动)

2. 启动kafka集群:(三台主机都要分别执行)

kafka-server-start.sh  -daemon /home/hadoop/software/kafka_2.11-2.3.1/config/server.properties

 注:这里的 /home/hadoop/software/kafka_2.11-2.3.1/config/server.properties 要换成自己的安装路径

3.启动之后jps,出现kafka进行就算完成啦

[hadoop@HadoopMaster ~]$ jps
88711 QuorumPeerMain
44043 Kafka
49388 Jps

加油,每天坚持学习,每天积累一点点,每天进步一点点。