文章目录

  • 一、概述
  • 1.1、定义
  • 1.2、如何运作?
  • 1.3、传统消息队列的应用场景
  • 1.4、消息队列的两种模式
  • 1.5、Kafka的基础架构
  • 二、安装(需要安装zookeeper)
  • 三、常用命令行操作
  • 3.1、主题命令行操作
  • 3.2、生产者命令行操作
  • 3.3、消费者命令行操作


一、概述

1.1、定义

Kafka是一个分布式的基于发布/订阅模式的消息队列(Message Quere)。
发布/订阅:消息的发布者不会将消息直接发送给特定的订阅者,而是将发布的消息分为不同的类别,订阅者只接受感兴趣的消息。

1.2、如何运作?

Kafka是一个由服务器和客户端组成的分布式系统,通过高性能TCP网络协议进行通信。它可以部署在本地和云中的裸机硬件、虚拟机和容器上环境。

  • 服务器: Kafka作为一个或多个服务器的集群运行,这些服务器可以跨越多个数据中心或云区域。其中一些服务器形成了存储层,成为代理。其他服务器运行Kafka Connect以持续导入和导出数据作为事件流。用于将Kafka与现有的系统、其他Kafka集群集成。Kafka集群具有高度可扩展行和容错:如果其任何服务器发送故障,其他服务器将接管其工作以确保连续操作,没有数据丢失。
  • **客户端:**它们允许编写分布式应用程序和微服务,这些应用程序和微服务可以并行地、大规模地读取、写入和处理事件流,并且即使在网络问题或机器故障的情况下也能以容错的方式进行。

1.3、传统消息队列的应用场景

缓存/消峰、解耦、异步通信

  • 缓存/消峰:有助于控制和优化数据流经过系统的速度,解决生成消息和消费消息的处理速度不一致的情况。
  • cdh kafka 命令_cdh kafka 命令

  • 解耦:允许独立扩展或修改两边的处理过程,只要确保它们遵守同样的接口约束。
  • cdh kafka 命令_服务器_02

  • + 异步处理:允许用户把一个消息放入队列,但并不立即处理它,然后在需要的时候去处理它们。

cdh kafka 命令_kafka_03

1.4、消息队列的两种模式

  • 点对点模式: 消费者主动拉取数据,消息收到后清除消息。
  • 发布/订阅模式:
  • 可以有多个topic主题。
  • 消费者消费数据后,不删除数据。
  • 每个消费者相互独立,都可以消费到数据。

1.5、Kafka的基础架构

  • 为方便扩展,并提高吞吐量,一个topic分为多个partition。
  • 配合分区的设计,提出消费者组的概念,组内每个消费者并行消费。
  • 为提高可用性,为每个partition增加若干个副本。
  • ZK中记录谁是leader
  • Producer:消息生产者,就是向 Kafka broker 发消息的客户端。
  • Consumer:消息消费者,向 Kafka broker 取消息的客户端。
  • Consumer Group(CG):消费者组,由多个 consumer 组成。消费者组内每个消费者负责消费不同分区的数据,一个分区只能由一个组内消费者消费;消费者组之间互不影响。所有的消费者都属于某个消费者组,即消费者组是逻辑上的一个订阅者。
  • Broker:一台 Kafka 服务器就是一个 broker。一个集群由多个 broker 组成。一个broker 可以容纳多个 topic。
  • Topic:可以理解为一个队列,生产者和消费者面向的都是一个 topic。
  • Partition:为了实现扩展性,一个非常大的 topic 可以分布到多个 broker(即服务器)上,一个 topic 可以分为多个 partition,每个 partition 是一个有序的队列。
  • Replica:副本。一个 topic 的每个分区都有若干个副本,一个 Leader 和若干个Follower。
  • Leader:每个分区多个副本的“主”,生产者发送数据的对象,以及消费者消费数据的对象都是 Leader。
  • Follower:每个分区多个副本中的“从”,实时从 Leader 中同步数据,保持和Leader 数据的同步。Leader 发生故障时,某个 Follower 会成为新的 Leader。

二、安装(需要安装zookeeper)

  1. 下载安装包Kafka官网下载地址
  2. 上传到服务器
  3. 解压
tar -zxf /opt/install/kafka_2.12-2.8.0.tgz -C /opt/soft/
  1. 修改目录名
mv /opt/install/kafka2_.12-2.8.0/ kafka212
  1. 修改配置文件(server.properties)(下面修改前面为第几行注意地址改为自己的地址)
vim /opt/soft/kafka212/config/server.properties
	21 broker.id=0
	36 advertised.listeners=PLAINTEXT://xsqone144:9092
	60 log.dirs=/opt/soft/kafka212/data
	103 log.retention.hours=1680
	123 zookeeper.connect=xsqone144:2181/kafka
	137 delete.topic.enable=true
  1. 设置节点号
echo "0">/opt/soft/kafka212/data/myid
  1. 修改配置文件
vim /etc/profile
	# KAFKA_HOME
	export KAFKA_HOME=/opt/soft/kafka212
	export PATH=$PATH:$KAFKA_HOME/bin
  1. 重新加载配置文件
source /etc/profile
  1. 测试(启动Kafka)
# 先启动zookeeper
zkServer.sh start
kafka-server-start.sh -daemon /opt/soft/kafka212/config/server.properties

三、常用命令行操作

3.1、主题命令行操作

  • 查看消息队列
kafka-topics.sh --bootstrap-server xsqone144:9092 --list

cdh kafka 命令_分布式_04

  • 创建消息队列
kafka-topics.sh --bootstrap-server xsqone144:9092 --create --topic taibai --replication-factor 1 --partitions 1

cdh kafka 命令_消息队列_05

  • 查看消息队列详情
kafka-topics.sh --bootstrap-server xsqone144:9092 --describe --topic taibai

cdh kafka 命令_cdh kafka 命令_06

  • 修改分区数(注意:只能增加,不能减少)
kafka-topics.sh --bootstrap-server xsqone144:9092 --alter --topic taibai --partitions 3

cdh kafka 命令_服务器_07

  • 删除消息队列
kafka-topics.sh --bootstrap-server xsqone144:9092 --delete --topic taibai

cdh kafka 命令_服务器_08

3.2、生产者命令行操作

  • 发送消息
kafka-console-producer.sh --bootstrap-server xsqone144:9092 --topic xsqone

cdh kafka 命令_kafka_09

  • 查看生产者者offset信息
kafka-run-class.sh kafka.tools.GetOffsetShell --broker-list xsqone144:9092 --topic xsqone

cdh kafka 命令_分布式_10

3.3、消费者命令行操作

  • 消费消息队列中的数据
kafka-console-consumer.sh --bootstrap-server xsqone144:9092 --topic xsqone

cdh kafka 命令_分布式_11

  • 消费消息队列中所有数据
kafka-console-consumer.sh --bootstrap-server xsqone144:9092 --from-beginning --topic first
  • 查看消费者的offset信息(最后的为消费者IDName)
kafka-consumer-groups.sh --bootstrap-server xsqone144:9092 --describe --group 5

第一列是groupid,第二列是主题名,第三列是分区,第四列是偏移量,第五列是生产者偏移量,第六列偏移量落后

cdh kafka 命令_cdh kafka 命令_12