##基础架构
(1)Producer:消息生产者,就是向 Kafka broker 发消息的客户端。
(2)Consumer:消息消费者,向 Kafka broker 取消息的客户端。
(3)Consumer Group(CG):消费者组,由多个 consumer 组成。消费者组内每个消费者负责消费不同分区的数据,一个分区只能由一个组内消费者消费;消费者组之间互不影响。所有的消费者都属于某个消费者组,即消费者组是逻辑上的一个订阅者。
(4)Broker:一台 Kafka 服务器就是一个 broker。一个集群由多个 broker 组成。一个broker 可以容纳多个 topic。
(5)Topic:可以理解为一个队列,生产者和消费者面向的都是一个 topic。
(6)Partition:为了实现扩展性,一个非常大的 topic 可以分布到多个 broker(即服务器)上,一个 topic 可以分为多个 partition,每个 partition 是一个有序的队列。
(7)Replica:副本。一个 topic 的每个分区都有若干个副本,一个 Leader 和若干个Follower。
(8)Leader:每个分区多个副本的“主”,生产者发送数据的对象,以及消费者消费数据的对象都是 Leader。
(9)Follower:每个分区多个副本中的“从”,实时从 Leader 中同步数据,保持和Leader 数据的同步。Leader 发生故障时,某个 Follower 会成为新的 Leader。

broker.id=2
listeners=PLAINTEXT://192.168.49.222:9092 #每个节点的host不同,默认是注释的
log.dirs=/opt/module/kafka/datas #自定义路径
zookeeper.connect=192.168.49.220:2181,192.168.49.221:2181,192.168.49.222:2181/kafka #/kafka将kafka的信息统一保存到zookeeper的kafka node下

​直接执行脚本会出现脚本的相关参数与解析。​

##Kafka Topic相关操作参数
[root@localhost bin]# ./kafka-topics.sh
--bootstrap-server #要连接的kafka主机名称和端口号,xxx.xxx.xxx.xxx:9092
--topic #指定对那个topic操作
--create #创建主题
--delete #删除主题
--alter #修改主题信息
--list #查看所有主题
--describe #查看主题详细信息
--partitions #设置分区数,修改分区只能增加,不能减少
--replication-factor #设置分区副本数
--config #设置系统默认的配置
##Kafka 生产者相关操作参数
[root@localhost bin]# ./kafka-console-producer.sh
--bootstrap-server #要连接的kafka主机名称和端口号,xxx.xxx.xxx.xxx:9092
--topic #指定对那个topic操作
##Kafka 消费者相关参数操作
[root@localhost bin]# ./kafka-console-consumer.sh
--bootstrap-server #要连接的kafka主机名称和端口号,xxx.xxx.xxx.xxx:9092
--topic #指定对那个topic操作
--from-beginning #从最开始进行消费

​节点的服役与退役​

#服役
(1)一台新的服务器
(2)准备对哪一个主题进行操作
(3)形成计划
(4)执行计划
(5)验证计划

#退役
(1)让退役的节点不再存储数据
(2)退出节点