1.第一步下载kafka 和zookeeper
i.地址:http://kafka.apache.org/downloads -2.7-scala-2.12
https://zookeeper.apache.org/releases.html -3.6.2
注意下一般高版本向下兼容选择完kafka的版本后尽量要匹配版本
下载的时候注意 要下载 文件名里面带有xxxxx.xx-bin.tar.gz的类似的但是要下载bin的开箱解压就可以用
2.解压文件
tar -zxvf xxxx.kafka-2.7.xx -c /opt (自己要安装的路径)
3.先配置zookeeper 的文件因为kafka启动集群需要zookeeper作为注册中心也是isr系统的重要组件
(这里最好将ZK 和kafka 都配置成环境变量这样就可以省的输入全路径了)

4.如果一个节点安装两个不同版本的kafka 可能报错Connection to node -1
1 : 更换kafka 的端口 listeners yourhost:port advertised.listeners host:port 第一个最好是0.0.0.0 允许外部连接的 第二个 是广播端口 如果不配置接收不到 内部发送的消息
2 : 修改zookeeper.connect 地址 后边加一个 文件名 比如 localhost:2181/kafka01 这样 不会混着来
3:修改日志文件地址log.dir 不要使用/tmp/kafka-log 更换成自己的地址 比如 /opt/log/kafka-log/kafka01 等

mkidr -p ${ZK_HOME}/data
cd ${ZK_HOME}/data
vim myid  #这里时节点的id有几个就写几个 1,2,3,4之类 如果突然20会因为检查不到这个节点报错
![在这里插入图片描述]()
cd  /${ZK_HOME}/conf
mv zoo_sample.cfg zoo.cfg
vim /zoo.cfg

kafka无法注册到zookeeper上 kafka没有zookeeper_kafka


1)红色线就是我们刚才配置好的路径 如果启动不成功或者有其他问题一直解决不了可以将里面除了myid 文件删除

2)蓝色线就是各个节点的配置

server.1=hadoop10:2888:3888
  server.2=hadoop20:2888:3888   
  server.3=hadoop30:2888:3888
  #hadoop10,hadoop20,=hadoop30是我自己在/etc/hosts 文件中配置了如果没配置需要使用ip地址 比如 192.168.250.141

3)分发 scp -r ${ZK_HOME} root@hadoop10:/${ZK_HOME}所有节点

4)启动bin/zkServer.sh start 配置环境量zkServer.sh start

4 安装Kafka

1.解压这里就不赘述了

2.配置文件

kafka无法注册到zookeeper上 kafka没有zookeeper_大数据_02


将zookeeper地址配置到里面以逗号分隔

3)分发到各个节点

4)启动

nohup kafka-server-start.sh /opt/kafka_2.12-2.7.0/config/server.properties >>/elk/tmp/kafka-logs/kafka.log 2>&1 &
 #指定的配置文件的时候/opt/kafka_2.12-2.7.0/config/server.properties 最好使用全路径名称这样不会出错 。

(我这里时配置环境变量的如果没有那么都是全路径)

5)jps 包含红色线 就启动成功可以使用了

kafka无法注册到zookeeper上 kafka没有zookeeper_hadoop_03