Kafka漏洞修复之CVE-2023-25194修复措施验证

  • 前言
  • 风险分析
  • 解决方案
  • AdoptOpenJDK + Zookeeper + Kafka
  • 多版本OpenJDK安装切换
  • Zookeeper安装
  • Kafka安装与使用
  • 其他
  • Kafka消息发送流程
  • Linux配置加载顺序
  • 参考链接


前言

  • 场景介绍
    Kafka最近爆出高危漏洞CNNVD-202302-515,导致Apache Kafka Connect 服务在 2.3.0 至 3.3.2 版本中,由于连接时支持使用基于 JNDI 认证的 SASL JAAS 配置,导致配置在被攻击者可控的情况下,可能通过 JNDI 注入执行任意代码。
    此漏洞不影响 Kafka server (broker),Kafka Connect 服务通常用于在云平台中提供 Kafka 数据迁移、数据同步的管道能力,其默认 HTTP API 开放于 8083 端口
  • 补充
    Apache Kafka Connect 是 Kafka 中用于和其他数据系统传输数据的服务,其独立运行版本可以在 Kafka 发布包中通过 bin/connect-standalone.sh 启动,默认会在 8083 端口开启 HTTP REST API 服务,可对连接器(Connector)的配置进行操作。

风险分析

  • 业务场景
    受漏洞影响的通常是基于 Kafka Connect 提供的:
  1. 数据管道服务(数据迁移、同步);
  2. Kafka 相关的测试服务(用于对 broker 的测试)
  • 前提条件
    从利用条件上,漏洞要成功用于执行任意代码,需要同时满足:
  1. 攻击者可以控制连接器(Connector)的配置;
  2. Kafka 服务能够访问攻击者控制的 LDAP 服务(通常需要能访问互联网);
  3. 基于远程 LDAP 引用注入需要 java 版本小于 11.0.1、8u191、7u201、6u211,本地则需要其 classpath 中加载了可以用于构造利用链的类。

解决方案

  • 升级kafka至3.4.0
    从 Apache Kafka 3.4.0 开始,添加了一个系统属性(“-Dorg.apache.kafka.disallowed.login.modules”) 禁用在 SASL JAAS 配置中使用有问题的登录模块。也由默认“com.sun.security.auth.module.JndiLoginModule”被禁用在 Apache Kafka 3.4.0 中。
    注意:可使用kraft方式替换zookeeper
  • 升级JDK版本
    由于Oracle JDK后期开始收费,所以考虑采用AdoptOpenJDK替换使用,以jdk8为例,升级至8u362,并结合2.3.0 至 3.4.0中的任一版本是否正常运行。
    本文主要结合该场景进行验证,这样升级代价更小

AdoptOpenJDK + Zookeeper + Kafka

  • 概述
    跳过已经安装的Oracle JDK8和Zookeeper,下文不在赘述,主要在Linux环境下配置多版本JDK,并启用OpenJDK,最后安装Kafka验证。
    OpenJDK1.8.0_362 + Zookeeper3.6.3 + Kafka3.4.0

多版本OpenJDK安装切换

  • 安装OpenJDK8
# 切换至非root用户
    su xxxx

    # 解压jdk tomcat至相关目录
    tar -zxvf OpenJDK8U-jdk_x64_linux_hotspot_8u362b09.tar.gz -C /opt/nbsp/java/openjdk1.8.0_362


    # 配置环境变量
    vi /etc/profile


    # 安装jdk1.8 
    export OPEN_JAVA_HOME=/opt/nbsp/java/openjdk1.8.0_362
    export CLASSPATH=.:${OPEN_JAVA_HOME}/lib/dt.jar:${OPEN_JAVA_HOME}/lib/tools.jar
    export PATH=$PATH:${OPEN_JAVA_HOME}/bin


    # 配置生效
    source /etc/profile


    # 验证
    java -version
  • 切换不同版本JDK
# 发现并不是新安装的jdk版本,使用命令更改当前系统使用的jdk版本
    alternatives --config java

    # 如果没有新安装的版本jdk,需要使用命令将新安装的jdk放入到java bin中
    alternatives --install /usr/bin/java java /opt/nbsp/java/openjdk1.8.0_362/bin/java 2
    alternatives --install /usr/bin/java java /opt/nbsp/java/jdk1.8.0_191/bin/java 3

    # 如果设置路径错了,可以使用 以下命令 删除一些 错误的 程序选择路劲
    alternatives --remove java /opt/nbsp/java/openjdk1.8.0_362/bin

Zookeeper安装

  • 主要过程
    zookeeper之前已经安装过,本文直接略过。下面是常用启停命令
# 启动zookeeper(进入对应的新版本目录)
    bin/zkServer.sh start

    # 查看zookeeper状态(进入对应的新版本目录)
    bin/zkServer.sh status

    # 停止zookeeper(进入对应的新版本目录)
    bin/zkServer.sh stop

Kafka安装与使用

  • 安装Kafka
# 创建文件夹kafka
    mkdir /home/nbsp/java/kafka

    # 解压压缩包到 /usr/kafka目录下
    tar -zxvf kafka_2.13-3.4.0.tgz -C /home/nbsp/java/kafka/

    # 创建日志文件夹 kafka-logs
    mkdir /home/nbsp/java/kafka/kafka_2.13-3.4.0/kafka-logs

    # 修改kafka的配置文件
    vim bin/config/server.properties

    #broker.id=0
    #log.dirs=/usr/local/kafka/kafka_2.12-2.2.0/kafka-logs
    #zookeeper.connect=localhost:2181
    #delete.topic.enble=true
    #advertised.listeners=PLAINTEXT://localhost:9092
  • 配置环境变量

方式一:修改/etc/profile

# 修改 profile 文件 (我使用的该方法,也推荐用这一种,两钟区别需自行查阅相关资料)
    vim /etc/profile

    #export KAFKA_HOME=/home/nbsp/java/kafka/kafka_2.13-3.4.0
    #export PATH=KAFKA_HOME/bin:$PATH

    # 使配置生效
    source /etc/profile

方式二:修改 .bashrc 文件

# 输入命令修改环境变量
    vim ~/.bashrc

    # 直接在最下面添加下面这些配置
    # export KAFKA_HOME=/usr/local/kafka/kafka_2.13-3.4.0
    # export PATH=KAFKA_HOME/bin:$PATH

    # 使配置生效
    source ~/.bashrc
  • 启动kafka
# 查看当前zookeeper状态
    /home/nbsp/java/zookeeper/apache-zookeeper-3.6.3-bin/bin/zkServer.sh status

    # 启动kafka(在 kafka 的根目录下使用命令)
    ./bin/kafka-server-start.sh config/server.properties &

    # 停止kafka
    # ./bin/kafka-server-start.sh config/server.properties &
  • 创建Topic
# 创建topic(必须指定bootstrap-server)
    ./bin/kafka-topics.sh --bootstrap-server localhost:9092 --create --partitions 1 --replication-factor 1 --topic nbsp

    # 查看 kafka 的 topic 情况
    ./bin/kafka-topics.sh --bootstrap-server localhost:9092 --list 

    # 描述 topic,查看topic的详细信息
    bin/kafka-topics.sh --bootstrap-server localhost:9092 --describe --topic nbsp
  • 消息生产消费
# 生产消息,生产者客户端命令,在 kafka 的根目录下使用命令
    ./bin/kafka-console-producer.sh --broker-list localhost:9092 --topic nbsp

    # bin/kafka-console-producer.sh --bootstrap-server localhost:9092 --topic nbsp

    # 消费消息,消费者客户端命令,在 kafka 的根目录下使用命令
    ./bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic nbsp --from-beginning

    # bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic nbsp
  • 删除topic
./bin/kafka-topics.sh --bootstrap-server localhost:9092 --delete --topic nbsp
  • 注意事项
    注意:kafka在启动服务之前,在server.properties文件中要设定3个参数:broker.id、log.dirs、zookeeper.connect
  • 主要参数
    delete.topic.enble=true :对以后删除kafka中的topic有影响,在文件尾部添加上即可
    listeners=PLAINTEXT://:9092 :这个命令也很重要,需要记住(这个命令在文章里先不做分析)
    advertised.listeners=PLAINTEXT://localhost:9092:这个localhost我用的是主机ip地址
  • 常见问题

不同版本创建topic区别

#  kafka3.0.0及以上需要指定bootstrap-server,且剔除zookeeper参数(因为可以使用kraft替代zookeeper)
    ./bin/kafka-topics.sh --bootstrap-server localhost:9092 --create --partitions 1 --replication-factor 1 --topic nbsp

    # kafka3.0.0以下
    ./bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic nbsp

ZK 模式和 Kraft 模式

Kafka 2.8.0 开始可以摆脱 ZK,这样做的好处有以下几个:

  1. Kafka 不再依赖外部框架,而是能够独立运行
  2. controller 管理集群时,不再需要从 zookeeper 中先读取数据,集群性能上升
  3. 由于不依赖 zookeeper,集群扩展时不再受到 zookeeper 读写能力限制
  4. controller 不再动态选举,而是由配置文件规定。这样我们可以有针对性的加强。controller 节点的配置,而不是像以前一样对随机 controller 节点的高负载束手无策

其他

Kafka消息发送流程

  • 原理分析
    在消息发送的过程中,涉及到了两个线程:main 线程和 Sender 线程
    main 线程中创建了一个双端队列 RecordAccumulator,main 线程将消息发送给 RecordAccumulator;
    Sender 线程不断从 RecordAccumulator 中拉取消息发送到 Kafka Broker。

Linux配置加载顺序

  • 简述
  • 登录式方式 shell
    /etc/profile -> /etc/profile.d目录下脚本文件 -> $HOME/.bash_profile(用户环境变量文件) -> $HOME/.bashrc(用户环境变量文件)-> /etc/bashrc(全局环境变量文件)
    /etc/profile > /etc/profile.d/*.sh , /etc/profile.d/sh.local > ~/.bash_profile > ~/.bashrc > ~/.bash_login > ~/.profile >
  • 非登录式 Shell
    只会加载$HOME/.bashrc(用户环境配置文件) -> /etc/bashrc(全局环境变量文件)
    如果以非登录的方式启动 Shell,那么就不会读取以上所说的配置文件,而是直接读取 ~/.bashrc。
    所以一般建议将配置直接添加在 ~/.bashrc 中,这样不管是登录式 Shell 还是 非登录式 Shell 都可以读到。
  • /etc/profile源码解析
for i in /etc/profile.d/*.sh /etc/profile.d/sh.local ; do
        if [ -r "$i" ]; then
            if [ "${-#*i}" != "$-" ]; then
                . "$i"
            else
                . "$i" >/dev/null
            fi
        fi
    done

    # $- 显示shell使用的当前选项
    # $* 这个程式的所有参数,此选项参数可超过9个。
    # $# 这个程式的参数个数

遍历 /etc/profile.d 目录下所有以 .sh 结尾的文件和 sh.local 文件。判断它们是否可读([ -r “$i”]),如果可读,判断当前 Shell启动方式是不是交互式($- 中包含 i)的,如果是交互式的,在当前 Shell 进程中执行该脚本(. “$i”,source “$i” 的简写, Shell 的模块化方式),否则,也在当前 Shell 进程中执行该脚本,只不过将输出重定向到了 /dev/null 中。

${-#*i} 这个表达式的意思是:从左向右,在 - 变量中找到第一个 i ,并截取 i 之后的子串