此篇文章是我从官网拿来的资料自己打了4个多小时翻译的,给大家参考Server端的配置

NAME

DESCRIPTION

TYPE

DEFAULT

VALID VALUES

IMPORTANCE

zookeeper.connect

Zookeeper host string

string

 

 

high                                

advertised.host.name

打广告的地址,若是设置的话,会提供给producers, consumers,其他broker连接,具体如何使用还未深究

string

 

 

high

advertised.listeners

打广告的地址,若是设置的话,会提供给producers, consumers,其他broker连接,具体如何使用还未深究

string

 

 

high

advertised.port

只在“广告”、“听众”或“听众”没有设置时使用。改为使用“广告。听众”。该端口发布给动物园管理员供客户使用。在IaaS环境中,这可能需要与代理绑定的端口不同。如果没有设置,它将发布代理绑定到的端口。

int

 

 

high

auto.create.topics.enable

启用服务器上的主题自动创建

 

boolean

true

 

high

auto.leader.rebalance.enable

是否自动平衡broker之间的分配策略

boolean

true

 

high

background.threads

一些后台任务处理的线程数,例如过期消息文件的删除等,一般情况下不需要去做修改

int

10

[1,...]

high

broker.id

每一个broker在集群中的唯一标示,要求是正数。在改变IP地址,不改变broker.id的话不会影响consumers

int

-1

 

high

compression.type

指定给定主题的最终压缩类型。此配置接受标准压缩编解码器('gzip', 'snappy', 'lz4')。它还接受“uncompressed”,这相当于没有压缩;和“producer”,这意味着保留原始压缩编解码器设置的producer。

string

producer

 

high

delete.topic.enable

启用删除主题。如果这个配置被关闭,通过管理工具删除主题将不起作用。

boolean

true

 

high

host.name

broker的主机地址,若是设置了,那么会绑定到这个地址上,若是没有,会绑定到所有的接口上,并将其中之一发送到ZK,一般成自己的ip

string

""

 

high

leader.imbalance.check.interval.seconds

检查leader是否不平衡的时间间隔

long

300

 

high

leader.imbalance.per.broker.percentage

leader的不平衡比例,若是超过这个数值,会对分区进行重新的平衡

int

10

 

high

listeners

侦听器列表-逗号分隔的URI列表,我们将侦听和侦听器名称。如果侦听器名称不是安全协议,也必须设置ListEn.SaleTy.Primo.Mp。指定主机名为0.0.0.0以绑定到所有接口。将主机名空到绑定到默认接口。合法听众列表的例子:明文://MyHub:9092,SSL://:9091客户端://0.0.0.0:9092,复制://LoalHoo: 9093

 

string

 

 

high

log.dir

Kafka数据存放的目录。

string

/tmp/kafka-logs

 

high

log.dirs

Kafka数据存放的目录。可以指定多个目录,中间用逗号分隔,当新partition被创建的时会被存放到当前存放partition最少的目录。

string

 

 

high

log.flush.interval.messages

log文件”sync”到磁盘之前累积的消息条数

因为磁盘IO操作是一个慢操作,但又是一个”数据可靠性”的必要手段

所以此参数的设置,需要在”数据可靠性”与”性能”之间做必要的权衡.

如果此值过大,将会导致每次”fsync”的时间较长(IO阻塞)

如果此值过小,将会导致”fsync”的次数较多,这也意味着整体的client请求有一定的延迟.

物理server故障,将会导致没有fsync的消息丢失.

long

9223372036854775807

[1,...]

high

log.flush.interval.ms

仅仅通过interval来控制消息的磁盘写入时机,是不足的.

此参数用于控制”fsync”的时间间隔,如果消息量始终没有达到阀值,但是离上一次磁盘同步的时间间隔

达到阀值,也将触发.

long

 

 

high

log.flush.offset.checkpoint.interval.ms

控制上次固化硬盘的时间点,以便于数据恢复 一般不需要去修改

int

60000

[0,...]

high

log.flush.scheduler.interval.ms

检查是否需要固化到硬盘的时间间隔

long

9223372036854775807

 

high

log.flush.start.offset.checkpoint.interval.ms

更新日志起始偏移的持久记录的频率

int

60000

[0,...]

high

log.retention.bytes

topic每个分区的最大文件大小,一个topic的大小限制 = 分区数*log.retention.bytes =-1 没有大小限制

log.retention.bytes和log.retention.minutes任意一个达到要求,都会执行删除,会被topic创建时的指定参数覆盖

long

-1

 

high

log.retention.hours

在删除日志文件之前的小时数

int

168

 

high

log.retention.minutes

数据存储的最大时间超过这个时间会根据log.cleanup.policy设置的策略处理数据,也就是消费端能够多久去消费数据

log.retention.bytes和log.retention.minutes任意一个达到要求,都会执行删除,会被topic创建时的指定参数覆盖

int

 

 

high

log.retention.ms

在删除日志文件(毫秒)之前保留毫秒数,如果未设置,则使用Log.ReaTime.Mess中的值。

long

 

 

high

log.roll.hours

这个参数会在日志segment没有达到log.segment.bytes设置的大小,也会强制新建一个segment会被 topic创建时的指定参数覆盖

int

168

[1,...]

high

log.roll.jitter.hours

从logRollTimeMillis(以小时为单位)减去的最大浮动,继承于log.roll.jitter.ms属性

int

0

[0,...]

high

log.roll.jitter.ms

从logRollTimeMillis中减去的最大浮动(以毫秒为单位)。 如果未设置,则使用log.roll.jitter.hours中的值

long

 

 

high

log.roll.ms

新日志段推出之前的最长时间(以毫秒为单位)。 如果未设置,则使用log.roll.hours中的值

long

 

 

high

log.segment.bytes

单个日志文件的最大大小

int

1073741824

[14,...]

high

log.segment.delete.delay.ms

从文件系统中删除文件之前等待的时间

long

60000

[0,...]

high

message.max.bytes

服务器可以接收的消息的最大大小

int

1000012

[0,...]

high

min.insync.replicas

当生产者将acks设置为“all”(或“-1”)时,min.insync.replicas指定必须确认写入的副本的最小数量,以使写入被认为成功。 如果这个最小值不能满足,那么生产者将引发一个异常(NotEnoughReplicas或NotEnoughReplicasAfterAppend)。当一起使用时,min.insync.replicas和ack允许你强制更强的耐久性保证。 典型的情况是创建一个复制因子为3的主题,将min.insync.replicas设置为2,并产生一个“all”的acks。 这将确保生成器在大多数副本没有接收到写入时引发异常。

int

1

[1,...]

high

num.io.threads

服务器用于执行网络请求的io线程数

int

8

[1,...]

high

num.network.threads

服务器用于处理网络请求的网络线程数

int

3

[1,...]

high

num.recovery.threads.per.data.dir

每个数据目录的线程数,用于在启动时进行日志恢复并在关闭时刷新

int

1

[1,...]

high

num.replica.fetchers

用于从源broker复制消息的提取线程数。 增加此值可以提高跟随器broker中的I / O并行度。

int

1

 

high

offset.metadata.max.bytes

与offset提交关联的元数据条目的最大大小

int

4096

 

high

offsets.commit.required.acks

可以接受提交之前所需的acks。 通常,不应覆盖默认值(-1)

short

-1

 

high

offsets.commit.timeout.ms

偏移提交将被延迟,直到偏移主题的所有副本都收到提交或达到此超时。 这类似于生产者请求超时。

int

5000

[1,...]

high

offsets.load.buffer.size

用于在将偏移量装入缓存时从偏移段读取的批量大小。

int

5242880

[1,...]

high

offsets.retention.check.interval.ms

检查旧偏移的频率

long

600000

[1,...]

high

offsets.retention.minutes

偏移topic的日志保留时间(分钟)

int

1440

[1,...]

high

offsets.topic.compression.codec

用于偏移topic的压缩编解码器 - 压缩可以用于实现“原子”提交

int

0

 

high

offsets.topic.num.partitions

偏移提交topic的分区数(部署后不应更改)

int

50

[1,...]

high

offsets.topic.replication.factor

偏移量主题的复制因子(设置为更高以确保可用性)。内部主题创建将失败,直到集群大小满足此复制因子要求。

 

short

3

[1,...]

high

offsets.topic.segment.bytes

偏移主题段字节应保持相对较小,以便于加快日志压缩和缓存加载

int

104857600

[1,...]

high

port

弃用的:仅在未设置`listeners`时使用。 使用`listeners`代替。
端口监听和接受连接

int

9092

 

high

queued.max.requests

在阻止网络线程之前允许的排队请求数

int

500

[1,...]

high

quota.consumer.default

弃用的:仅当未在Zookeeper中或在Zookeeper中配置动态默认配额时使用。 由clientId / consumer组区分的任何消费者如果每秒获取的字节数超过此值,则会受到限制

long

9223372036854775807

[1,...]

high

quota.producer.default

弃用的:仅在未配置动态默认配额时使用,或在Zookeeper中使用。 由clientId区分的任何生产者如果每秒产生的字节数大于此值,则会受到限制

 

 

 

long

9223372036854775807

[1,...]

high

replica.fetch.min.bytes

每个获取响应所需的最小字节数。 如果没有足够的字节,请等待到replicaMaxWaitTimeMs

int

1

 

high

replica.fetch.wait.max.ms

由跟随者副本发出的每个获取器请求的最大等待时间。 此值应始终小于replica.lag.time.max.ms以防止低吞吐量topic的ISR频繁收缩

int

500

 

high

replica.high.watermark.checkpoint.interval.ms

保存到磁盘的频率

long

5000

 

high

replica.lag.time.max.ms

如果跟随者没有发送任何提取请求,或者至少没有消耗到领导者日志结束偏移,则领导者将从ISR移除跟随者。

 

long

10000

 

high

replica.socket.receive.buffer.bytes

用于网络请求的套接字接收缓冲区

int

65536

 

high

replica.socket.timeout.ms

网络请求的套接字超时。 其值应至少为replica.fetch.wait.max.ms

int

30000

 

high

request.timeout.ms

配置控制客户端等待请求响应的最大时间量。 如果在超时时间之前没有收到响应,客户端将在必要时重新发送请求,如果重试次数耗尽,则请求失败。

int

30000

 

high

socket.receive.buffer.bytes

套接字服务器的SO_RCVBUF缓冲区插槽。 如果值为-1,将使用操作系统默认值。

int

102400

 

high

socket.request.max.bytes

套接字请求中的最大字节数

int

104857600

[1,...]

high

socket.send.buffer.bytes

套接字服务器的SO_SNDBUF缓冲区插槽。 如果值为-1,将使用操作系统默认值。

int

102400

 

high

transaction.max.timeout.ms

事务的最大允许超时时间。如果客户端请求的事务时间超过此,则代理将返回InitProducerIdRequest中的错误。这样可以防止客户端超时过大,这会阻止消费者从事务中包含的主题中读取信息。

 

int

900000

[1,...]

high

transaction.state.log.load.buffer.size

当将生产者ID和事务加载到缓存中时,从事务日志段读取的批大小。

 

int

5242880

[1,...]

high

transaction.state.log.min.isr

覆盖事务主题的min.insync.replicas配置。

int

2

[1,...]

high

transaction.state.log.num.partitions

事务主题的分区数量(部署后不应更改)。

int

50

[1,...]

high

transaction.state.log.replication.factor

事务主题的复制因子(设置更高以确保可用性)。 内部主题创建将失败,直到群集大小满足此复制因素要求。

short

3

[1,...]

high

transaction.state.log.segment.bytes

事务主题段字节应保持相对较小,以便于更快的日志压缩和缓存负载

int

104857600

[1,...]

high

transactional.id.expiration.ms

事务协调器在未收到任何事务状态更新之前,主动设置生产者的事务标识为过期之前将等待的最长时间(以毫秒为单位)。

int

604800000

[1,...]

high

unclean.leader.election.enable

指明了是否能够使不在ISR中replicas follower设置用来作为leader

boolean

false

 

high

zookeeper.connection.timeout.ms

连接到ZK server的超时时间,没有配置就使用zookeeper.session.timeout.ms

int

 

 

high

zookeeper.session.timeout.ms

ZooKeeper的session的超时时间,如果在这段时间内没有收到ZK的心跳,则会被认为该Kafka server挂掉了。如果把这个值设置得过低可能被误认为挂掉,如果设置得过高,如果真的挂了,则需要很长时间才能被server得知。

int

6000

 

high

zookeeper.set.acl

连接zookeeper是否使用 ACLs安全验证

boolean

false

 

high

broker.id.generation.enable

服务器是否允许自动生成broker.id;如果允许则产生的值会交由reserved.broker.max.id审核

boolean

true

 

medium

broker.rack

broker的机架位置。 这将在机架感知复制分配中用于容错。 例如:RACK1,us-east-1d

string

 

 

medium

connections.max.idle.ms

空闲连接超时:服务器套接字处理器线程关闭闲置超过此的连接

long

600000

 

medium

controlled.shutdown.enable

是否允许控制器关闭broker ,若是设置为true,会关闭在这个broker上所有分区的leader,并转移到其他broker,这会降低在关闭期间不可用的时间。

boolean

true

 

medium

controlled.shutdown.max.retries

控制器在关闭时可能有多种原因导致失败,可以重新关闭的次数。

int

3

 

medium

controlled.shutdown.retry.backoff.ms

在每次重新关闭前,系统需要一定的时间去恢复发生错误之前的状态,这个就是在重试期间的回退(backoff)时间。

long

5000

 

medium

controller.socket.timeout.ms

控制器到broker通道的socket超时时间

int

30000

 

medium

default.replication.factor

自动创建topic时的默认副本的个数

int

1

 

medium

delete.records.purgatory.purge.interval.requests

删除记录请求的清除间隔(请求次数)

int

1

 

medium

fetch.purgatory.purge.interval.requests

取回请求的清除间隔(请求次数)

 

int

1000

 

medium

group.initial.rebalance.delay.ms

在执行第一次再平衡之前,group协调员将等待更多消费者加入group的时间。 延迟时间越长意味着重新平衡的可能性越小,但是等待处理开始的时间增加

 

int

3000

 

medium

group.max.session.timeout.ms

消费者向组内注册时允许的最大超时时间,超过这个时间表示注册失败。更长的超时使消费者有更多的时间来处理心跳之间的消息,代价是检测失败的时间更长。

int

300000

 

medium

group.min.session.timeout.ms

消费者向组内注册时允许的最小超时时间,更短的超时以更频繁的消费者心跳为代价但有更快速的故障检测,这可能影响broker资源。

int

6000

 

medium

inter.broker.listener.name

用于经纪人之间沟通的监听者名称。如果未设置,则侦听器名称由security.inter.broker.protocol定义。 同时设置此和security.inter.broker.protocol属性是错误的。

string

 

 

medium

inter.broker.protocol.version

指定将使用哪个版本的 inter-broker 协议。 在所有经纪人升级到新版本之后,这通常会受到冲击。升级时要设置

string

1.0-IV0

 

medium

log.cleaner.backoff.ms

检查log是否需要clean的时间间隔。

long

15000

[0,...]

medium

log.cleaner.dedupe.buffer.size

日志压缩去重时候的缓存空间,在空间允许的情况下,越大越好。

long

134217728

 

medium

log.cleaner.delete.retention.ms

对于压缩的日志保留的最长时间,也是客户端消费消息的最长时间,同log.retention.minutes的区别在于一个控制未压缩数据,一个控制压缩后的数据。

long

86400000

 

medium

log.cleaner.enable

启用日志清理器进程在服务器上运行。使用了cleanup.policy = compact的主题,包括内部offsets主题,都应该启动该选项。如果被禁用的话,这些话题将不会被压缩,并且会不断增长。

boolean

true

 

medium

log.cleaner.io.buffer.load.factor

日志清理中hash表的扩大因子,一般不需要修改。

double

0.9

 

medium

log.cleaner.io.buffer.size

日志清理时候用到的I/O块(chunk)大小,一般不需要修改。

int

524288

[0,...]

medium

log.cleaner.io.max.bytes.per.second

在执行log compaction的过程中,限制了cleaner每秒钟I/O的数据量,以免cleaner影响正在执行的请求。

double

1.7976931348623157E308

 

medium

log.cleaner.min.cleanable.ratio

控制了log compactor进行clean操作的频率。默认情况下,当log的50%以上已被clean时,就不用继续clean了。此配置可以被覆盖。

double

0.5

 

medium

log.cleaner.min.compaction.lag.ms

消息在日志中保持未压缩的最短时间。 仅适用于正在压缩的日志。

long

0

 

medium

log.cleaner.threads

用于日志清理的后台线程的数量

int

1

[0,...]

medium

log.cleanup.policy

此配置可以设置成delete或compact。如果设置为delete,当log segment文件的大小达到上限,或者roll时间达到上限,文件将会被删除。如果设置成compact,则此文件会被清理,标记成已过时状态,详见 4.8 。此配置可以被覆盖。

list

delete

[compact, delete]

medium

log.index.interval.bytes

当执行一个fetch操作后,需要一定的空间来扫描最近的offset大小,设置越大,代表扫描速度越快,但是也更耗内存,一般情况下不需要改变这个参数。

int

4096

[0,...]

medium

log.index.size.max.bytes

每个log segment的最大尺寸。注意,如果log尺寸达到这个数值,即使尺寸没有超过log.segment.bytes限制,也需要产生新的log segment。

int

10485760

[4,...]

medium

log.message.format.version

指定broker将用于将消息添加到日志文件的消息格式版本。 该值应该是有效的ApiVersion。 一些例子是:0.8.2,0.9.0.0,0.10.0。 通过设置特定的消息格式版本,用户保证磁盘上的所有现有消息都小于或等于指定的版本。 不正确地设置这个值将导致使用旧版本的用户出错,因为他们将接收到他们不理解的格式的消息。

string

1.0-IV0

 

medium

log.message.timestamp.difference.max.ms

broker收到消息时的时间戳和消息中指定的时间戳之间允许的最大差异。如果log.message.timestamp.type = CreateTime,如果时间戳的差值超过此阈值,则会拒绝接受这条消息。如果log.message.timestamp.type = LogAppendTime,则忽略此配置。允许的最大时间戳差异不应大log.retention.ms,以避免不必要地频繁进行日志滚动。

long

9223372036854775807

 

medium

log.message.timestamp.type

定义消息中的时间戳是消息创建时间还是日志追加时间。 该值应该是“CreateTime”或“LogAppendTime”

string

CreateTime

[CreateTime, LogAppendTime]

medium

log.preallocate

是否预创建新的段文件,windows推荐使用

boolean

false

 

medium

log.retention.check.interval.ms

检查日志段文件的间隔时间,以确定是否文件属性是否到达删除要求。

long

300000

[1,...]

medium

max.connections.per.ip

broker上每个IP允许最大的连接数

int

2147483647

[1,...]

medium

max.connections.per.ip.overrides

每个ip或者hostname默认的连接的最大覆盖

string

""

 

medium

num.partitions

新建Topic时默认的分区数

int

1

[1,...]

medium

principal.builder.class

实现KAFKAPRIN CIPuBurdor接口的类的完全限定名,用于在授权过程中使用KAFKAPRIPIPSIL对象。此配置还支持以前用于SSL的客户端身份验证的Debug PrimeBu建器接口。如果没有定义主生成器,则默认行为取决于使用的安全协议。对于SSL身份验证,如果提供了一个主名称,将是来自客户端证书的区分名称;否则,如果不需要客户端身份验证,则主体名称将是匿名的。对于SASL认证,主体将使用SASL.KKBALOS.PrimPal.to.Loal.Grand规则,如果GSSAPI正在使用,以及其他机构的SASL认证ID。对于明文,校长将是匿名的。

 

class

 

 

medium

producer.purgatory.purge.interval.requests

生产者请求的清洗间隔(请求次数)

 

int

1000

 

medium

queued.max.request.bytes

在没有读取更多请求之前允许的排队字节数。

 

long

-1

 

medium

replica.fetch.backoff.ms

发生读取分区错误时的睡眠时间。

 

int

1000

[0,...]

medium

replica.fetch.max.bytes

试图为每个分区获取的消息字节数。这不是绝对最大值,如果取回的第一个非空分区中的第一个记录批大于这个值,则记录批仍将返回以确保可以进行进度。代理所接受的最大记录批量大小定义了ViaMaseA.Max(Basic CONFIG)ORMAX。

 

int

1048576

[0,...]

medium

replica.fetch.response.max.bytes

整个取回响应的最大字节数。记录以批处理方式获取,如果第一个非空分区中的第一个记录批大于这个值,则仍将记录批处理以确保可以进行进度。因此,这不是绝对最大值。代理所接受的最大记录批量大小定义了ViaMaseA.Max(Basic CONFIG)ORMAX。

 

int

10485760

[0,...]

medium

reserved.broker.max.id

最大的数字用于broker.id

int

1000

[0,...]

medium

sasl.enabled.mechanisms

kafka服务器中启用的SASL机制列表。该列表可以包含任何安全提供者可用的机制。默认情况下只有GSSAPI启用。

 

list

GSSAPI

 

medium

sasl.kerberos.kinit.cmd

Kerberos KimIT命令路径。

string

/usr/bin/kinit

 

medium

sasl.kerberos.min.time.before.relogin

在刷新尝试之间登录线程睡眠时间。

long

60000

 

medium

sasl.kerberos.principal.to.local.rules

从主名到短名称(通常是操作系统用户名)映射的规则列表。规则按顺序进行评估,并且与主名称匹配的第一条规则用于将其映射到短名称。列表中的任何以后的规则将被忽略。默认情况下,窗体{用户名}/{主机名}域}的主要名称被映射到{用户名}。有关格式的更多细节请参阅SeeSurvivAs授权和ACL。请注意,如果KafkaPrincipalBuilder的扩展是由PrimalPal.BuoDr.Car配置提供的,则忽略此配置。

 

list

DEFAULT

 

medium

sasl.kerberos.service.name


卡夫卡运行的Kerberos主体名称。这可以在卡夫卡的JAAS配置文件或卡夫卡的配置文件中定义。

string

 

 

medium

sasl.kerberos.ticket.renew.jitter

随机平衡的百分比增加到更新时间。

double

0.05

 

medium

sasl.kerberos.ticket.renew.window.factor

登录线程将休眠,直到从上次刷新ticket到期,此时将尝试续订ticket。

double

0.8

 

medium

sasl.mechanism.inter.broker.protocol

用于代理间通信的SASL机制。默认是GSSAPI。

 

string

GSSAPI

 

medium

security.inter.broker.protocol

用于代理之间通信的安全协议。有效值是:明文、SSL、SASLILISTER、SAASLSSL。同时设置此和It.Buff.ListNe.NoD属性是一个错误。

 

string

PLAINTEXT

 

medium

ssl.cipher.suites

密码套件列表。用于TLS或SSL网络协议协商网络连接的安全设置的认证,加密,MAC和密钥交换算法的命名组合。 默认情况下,支持所有可用的密码套件。

list

 

 

medium

ssl.client.auth

配置卡夫卡代理以请求客户端身份验证。以下设置是常见的:

 

如果需要设置客户机身份验证,则需要SSL.Client。Auth=需要。

 

SSL。Client。Auth=请求,这意味着客户端身份验证是可选的。与请求不同,如果设置了此选项,客户端可以选择不提供关于其自身的身份验证信息。

 

SSL.Client,Auth=没有,这意味着不需要客户端身份验证。

string

none

[required, requested, none]

medium

ssl.enabled.protocols

为SSL连接启用的协议列表。

 

list

TLSv1.2,TLSv1.1,TLSv1

 

medium

ssl.key.password

密钥存储文件中私钥的密码。这对于客户端是可选的。

 

password

 

 

medium

ssl.keymanager.algorithm

密钥管理器工厂用于SSL连接的算法。默认值是密钥管理器厂算法配置java虚拟机。

 

string

SunX509

 

medium

ssl.keystore.location

密钥存储文件的位置。对于客户端来说,这是可选的,可以用于客户端的双向认证。

 

string

 

 

medium

ssl.keystore.password

密钥存储文件的存储密码。这对于客户端是可选的,只需要配置SSL.KeStk.Lead。

 

password

 

 

medium

ssl.keystore.type

密钥存储文件的文件格式。这对于客户端是可选的。

 

string

JKS

 

medium

ssl.protocol

用于生成SSLVIEW的SSL协议。默认设置是TLS,这对于大多数情况来说是好的。在最近的JVM中允许的值是TLS、TLV1.1和TLV1.2。SSL、SSLV2和SSLV3可以在较老的JVM中得到支持,但是由于已知的安全漏洞而阻碍了它们的使用。

 

string

TLS

 

medium

ssl.provider

用于SSL连接的安全提供程序的名称。默认值是JVM的默认安全性提供程序。

 

string

 

 

medium

ssl.trustmanager.algorithm

信任管理器工厂用于SSL连接的算法。默认值为信托经理厂算法配置java虚拟机。

 

string

PKIX

 

medium

ssl.truststore.location

信任存储文件的位置。

 

string

 

 

medium

ssl.truststore.password

信任存储文件的密码。如果未设置密码,仍然可以访问信任存储区,但禁用完整性检查。

 

password

 

 

medium

ssl.truststore.type

信任存储文件的文件格式。

string

JKS

 

medium

alter.config.policy.class.name

ALTER配置应该用于验证的策略类。该类应该实现Or.ApAC.KAFKA.Serv.Price。

class

 

 

low

authorizer.class.name

应用于授权的授权程序类

string

""

 

low

create.topic.policy.class.name

应该用于验证的CREATE主题策略类。该类应该实现Or.ApAC.KAFKA.Serv.Cuff.CealTePopIcRead接口。

class

 

 

low

listener.security.protocol.map

在侦听器名称和安全协议之间映射。对于相同的安全协议,必须在多个端口或IP中定义这一点。例如,即使两者都需要SSL,也可以分离内部和外部业务。具体来说,用户可以定义具有内部和外部名称的侦听器,并且该属性为:“内部:SSL,外部:SSL”。如图所示,键和值由冒号分隔,MAP条目用逗号分隔。每个侦听器名称只在地图中出现一次。可以为每个侦听器配置不同的安全性(SSL和SASL)设置,通过向CONFIG名称添加标准化前缀(侦听器名称为LeLeCaseDead)。例如,为内部侦听器设置一个不同的密钥存储库,将设置一个名为‘侦听器.Name .No.SSL.KyStury.Load’的配置。如果没有设置侦听器名称的配置,则配置将回落到通用配置(即‘SSL.KiStk.Load’)。

 

string

PLAINTEXT:PLAINTEXT,SSL:SSL,SASL_PLAINTEXT:SASL_PLAINTEXT,SASL_SSL:SASL_SSL

 

low

metric.reporters

作为度量指标的类的列表。实现Or.ApHEC.KAFK.AUM.MUCICIC.MeMICCsHealthExchange接口允许插入将被通知新度量创建的类。JMXNeRead总是包含注册JMX统计信息。

 

list

""

 

low

metrics.num.samples

保留计算metrics的样本数(译者不清楚是做什么的)

int

2

[1,...]

low

metrics.recording.level

度量的最高记录级别。

string

INFO

 

low

metrics.sample.window.ms

The window 计算度量样本。

long

30000

[1,...]

low

quota.window.num

在客户机内存中保留的样本数量

 

int

11

[1,...]

low

quota.window.size.seconds

客户配额的每个样本的时间跨度

 

int

1

[1,...]

low

replication.quota.window.num

在内存中保留用于复制配额的样本数量

int

11

[1,...]

low

replication.quota.window.size.seconds

复制配额的每个样本的时间跨度

 

int

1

[1,...]

low

ssl.endpoint.identification.algorithm

使用服务器证书验证服务器主机名的端点识别算法。

 

string

 

 

low

ssl.secure.random.implementation

用于SSL加密操作的SoCurrANDOM PRNG实现。

 

string

 

 

low

transaction.abort.timed.out.transaction.cleanup.interval.ms

回滚已超时事务的间隔。

 

int

60000

[1,...]

low

transaction.remove.expired.transaction.cleanup.interval.ms

在该区间删除已过期的totransactional.id.expiration.mspassing交易由于

int

3600000

[1,...]

low

zookeeper.sync.time.ms

 zookeeper的follower同leader的同步时间

int

2000

 

low