使用SASL机制的KAFKA集群的安装      背景介绍         本文档是以xxxx最近布置的kafka集群为样本,结合一些教程和资料编写。之前xxxx使用的一直是0.8.2的版本,由于局方要求给实时数据交换平台添加安全认证
转载 3月前
59阅读
1.概述  在Kafka0.9版本之前,Kafka集群时没有安全机制的。Kafka Client应用可以通过连接Zookeeper地址,例如zk1:2181:zk2:2181,zk3:2181等。来获取存储在Zookeeper中的Kafka元数据信息。拿到Kafka Broker地址后,连接到Kafka集群,就可以操作集群上的所有主题了。由于没有权限控制,集群核心的业务主题时存在风险的。2.内容2
1.PXE安装一台服务器  域名(example.cn) 主机名: 个人姓名全拼 (比如:个人姓名全拼.example.cn)  zhangjianxin.example.cn IP地址: MAC地址: IP地址和mac地址见: 高可用0308.xlsx   (每位同学的vip与mac地址唯一) 1) /et
一、事前准备     1.kafka官网:http://kafka.apache.org/downloads.     2.选择使用版本下载.     3.kafka集群环境准备:(linux)       192.168.145.129   主机名:kafk
Consumer APIConsumer 消费数据时的可靠性是很容易保证的,因为数据在 Kafka 中是持久化的,故不用担心数据丢失问题。由于 consumer 在消费过程中可能会出现断电宕机等故障,consumer 恢复后,需要从故障前的位置的继续消费,所以 consumer 需要实时记录自己消费到了哪个 offset,以便故障恢复后继续消费。所以 offset 的维护是 Consumer 消费
kafka-broker配置 常规配置常规配置指的是一些在使用单机安装时可以直接使用的默认值,这可以满足大部分的开发需求。但是在部署到其他环境时,需要格外小心,这些参数是单个服务器最基本的配置,他们中的大部分需要经过修改之后才可以用在生产环境里broker.id 每个broker都需要有一个标识符,使用broker.id来表示。默认值为0,在部署到生产环
转载 7月前
142阅读
Linux 安装 Kafka 并开启 SASL/PLAINTEXT 认证前言一、环境准备1、组件版本2、下载文件3、上传文件二、安装 Zookeeper(单节点)三、安装 Kafka(单节点)四、Zookeeper 开启 SASL 认证1、修改 zoo.cfg,添加如下配置2、新增 zk_server_jaas.conf3、将 kafka 认证的包导入 zk 中4、修改 zkEnv.sh 添加环
1.目标 - 卡夫卡安全今天,在这个Kafka教程中,我们将看到Apache Kafka Security 的概念  。Kafka Security教程包括我们需要安全性的原因,详细介绍加密。有了这个,我们将讨论Kafka Security可以轻松解决的问题列表。此外,我们将看到Kafka身份验证和授权。此外,我们将看看ZooKeeper身份验证。那么,让我
一、部署部署Kafka前需先部署Zookeeper两台虚拟机(CentOS Linux 7): 192.168.190.200 master 192.168.190.201 slave1 所有节点都执行(hadoop用户) 1. 下载 Kafka,安装版本:kafka_2.11-2.2.1.tgz,放于 /opt/ 目录下 2. 解压 $ cd /opt $ ta
本文档的参数主要针对是kafka 0.10.0版本。kafka broker 配置对应kafka安装目录config/server.properties文件的配置broker.id每一个Kafka的broker都有一个整数的标识。我们设置broker.id来标识它。默认这个整数是0。这个整数必须是在一个集群中是唯一的,且必须>=0。推荐该值能对应上broker所在的主机名。port该值是监听
kafka服务端有很多参数配置,涉及使用,调优的各个方面,虽然这些参数大多数情况下不需要更改,但了解这些参数,在做kafka调优的时候很重要。zookeeper.connect该参数指明broker要连接zookeeper集群的服务地址和端口号,没有默认值,且为必填参数。kafka默认连接到zookeeper的根路径下,可以通过chroot改变默认路径,使用chroot参数,可以使得一套zk部署多
在前一篇:kafka学习1:kafka安装 中,我们安装了单机版的Kafka,而在实际应用中,不可能是单机版的应用,必定是以集群的方式出现。本篇介绍Kafka集群的安装过程: 一、准备工作    1、开通Zookeeper和Kafka需要的端口      在 zookeeper-端口说明 中,我们可以看到Zo
目录1. 认识kafka1. 搭建单机kafka2. 单机基准测试3. 搭建 kafka伪集群(待补充)4. kafka 基本概念5. 幂等性 1. 认识kafka1. 搭建单机kafkakafka的安装包上传到虚拟机,并解压cd /usr/loacl/ tar -zxvf kafka_2.13-2.6.0.tgz cd /usr/local/kafka_2.13-2.6.0修改 serve
1.Kafka 的设计时什么样的呢? Kafka 将消息以 topic 为单位进行归纳 将向 Kafka topic 发布消息的程序成为 producers. 将预订 topics 并消费消息的程序成为 consumer. Kafka 以集群的方式运行,可以由一个或多个服务组成,每个服务叫做一个 broker. producers 通过网络将消息发送到 Kafka 集群,集群向消费者提供消息2.数
转载 6月前
45阅读
前些日子要封装一个kafka的客户端驱动,配置了下kafka环境,发现配置复杂度完爆rabbitmq很多倍啊,而且发布订阅模式使用起来也很麻烦,可能就胜在分布式了吧。kafka需要java环境,自行安装java sdk 1.8+.http://kafka.apache.org/downloads官方加载安装包,当前为kafka_2.11-1.1.0.tgz(新版kafka包内集成了zookeepe
目录1.Windows安装zookeeper:1.1下载zookeeper1.2 解压之后如图二1.3创建日志文件1.4复制 “zoo_sample.cfg” 文件1.5更改 “zoo.cfg” 配置1.6新建zk_server_jaas.conf1.7修改zkEnv.cmd1.8导入相关jar1.9以上配置就配好啦,接下来启动。1.10连接测试2.Windows下安装运行kafka:2
转载 17天前
22阅读
一、方案1. 不接入外部存储,基于kafka原生ACL认证环境: kafka-2.2.1、zookeeper-3.6.3 kafka给我们提供了SASL/SCRAM模式,将SASL、ACL规则信息存储到zookeeper中,并且通过KafkaClientAdmin Api,新增、编辑、删除规则,其特性如下应用发送、消费实现动态身份认证和授权基于kafka SASL/SCRAM模式,客户端会在建立连
Kafka认证和授权 Kafka认证机制概述GSSAPI:使用的Kerberos认证,可以集成目录服务,比如AD。Kafka最小版本 0.9PLAIN:使用简单用户名和密码形式,Kafka最小版本 0.10SCRAM:主要解决PLAIN动态更新问题以及安全机制,Kafka最小版本 0.10.2OAUTHBEARER:基于OAuth 2认证框架,Kafk
转载 2023-08-03 16:55:24
367阅读
Kafka认证机制概述 GSSAPI:使用的Kerberos认证,可以集成目录服务,比如AD。Kafka最小版本 0.9 PLAIN:使用简单用户名和密码形式,Kafka最小版本 0.10 SCRAM:主要解决PLAIN动态更新问题以及安全机制,Kafka最小版本 0.10.2 OAUTHBEARER:基于OAuth 2认证框架,Kafka最小版本 2.0 配置SASL\PLAIN 创建kafk
一.背景kafka提供了多种安全认证机制,主要分为SSL和SASL2大类。其中SASL/PLAIN是基于账号密码的认证方式,比较常用。最近做了个kafka的鉴权,发现官网上讲的不是很清楚,网上各种博客倒是很多,但是良莠不齐,巨多坑。经过一天的研究,终于搞定了,特在此记录下。二.环境操作系统:linux kafka版本:kafka_2.12-0.11.0.1 zookeeper版本:zookeepe
  • 1
  • 2
  • 3
  • 4
  • 5