1 [yun@mini01 config]$ pwd
2 /app/kafka/config3 [yun@mini01 config]$ vim server.properties4 ############################# Server Basics #############################5 # 每一个broker在集群中的唯一标示★★★6 # 比如mini01 为0 mini02 为1 mini03 为27 broker.id=0
8
9 ############################# Socket Server Settings #############################10 # The address the socket server listens on. It will get the value returned from11 # java.net.InetAddress.getCanonicalHostName() ifnot configured.12 # FORMAT:13 # listeners = listener_name://host_name:port
14 # EXAMPLE:15 # listeners = PLAINTEXT://your.host.name:9092
16 # 启动kafka服务监听的ip和端口,默认为java.net.InetAddress.getCanonicalHostName()获取的ip17 #listeners=PLAINTEXT://:9092
18
19 # broker通知到producers和consumers的主机地址和端口号20 # 如果未设置,使用listeners的配置。否则,使用java.net.InetAddress.getCanonicalHostName()返回的值21 # 对于ipv4,基本就是localhost了 127.0.0.1最后就是访问失败22 #advertised.listeners=PLAINTEXT://your.host.name:9092
23 # 在不同的机器,名称不同 如mini01、mini02、mini03★★★24 advertised.listeners=PLAINTEXT://mini01:9092
25
26 # broker 处理消息的最大线程数,一般情况下不需要去修改27 num.network.threads=3
28
29 # broker处理磁盘IO 的线程数 ,数值应该大于你的硬盘数30 num.io.threads=8
31
32 # 发送缓冲区buffer大小,数据不是一下子就发送的,先回存储到缓冲区了到达一定的大小后在发送,能提高性能33 socket.send.buffer.bytes=102400
34
35 # kafka接收缓冲区大小,当数据到达一定大小后在序列化到磁盘36 socket.receive.buffer.bytes=102400
37
38 # 这个参数是向kafka请求消息或者向kafka发送消息的请求的最大数,这个值不能超过java的堆栈大小39 socket.request.max.bytes=104857600
40
41 ############################# Log Basics #############################42 # kafka数据的存放地址,多个地址的话用逗号分割 /tmp/kafka-logs-1,/tmp/kafka-logs-2
43 log.dirs=/app/kafka/logs44
45 # 默认的分区数,一个topic默认1个分区数46 num.partitions=1
47
48 # 每个数据目录在启动时用于日志恢复和关闭时用于刷新的线程数。49 num.recovery.threads.per.data.dir=1
50
51 ############################# Internal Topic Settings #############################52 # 组元数据内部主题“__consumer_offset”和“__transaction_state”的复制因子53 # 对于开发测试之外的任何内容,建议使用大于1的值来确保可用性,比如3。54 offsets.topic.replication.factor=3
55 transaction.state.log.replication.factor=3
56 transaction.state.log.min.isr=3
57
58 ############################# Log Flush Policy #############################59 # 在持久化到磁盘前message最大接收条数60 #log.flush.interval.messages=10000
61 log.flush.interval.messages=10000
62
63 # 持久化的最大时间间隔64 #log.flush.interval.ms=1000
65 log.flush.interval.ms=3000
66
67 ############################# Log Retention Policy #############################68 # 默认消息的最大持久化时间,168小时,7天69 # segment 文件保留的最长时间,超时则被删除70 log.retention.hours=168
71
72 # 当分片的大小超过该值时,就会被删除。该功能不依赖于log.retention.hours。为 -1没有大小限制73 #log.retention.bytes=1073741824
74 log.retention.bytes=-1
75
76 # 滚动生成新的segment文件的最大时间77 log.roll.hours=168
78
79 # 单个分片的上限,达到该大小后会生成新的日志分片 1G80 log.segment.bytes=1073741824
81
82 # 日志分片的检测时间间隔,每隔该时间会根据log保留策略决定是否删除log分片83 log.retention.check.interval.ms=300000
84
85 # 默认为true 启用日志清理器进程在服务器上运行86 log.cleaner.enable=true
87
88 # 默认为true 【当前版本】 启用删除主题。 如果此配置已关闭,则通过管理工具删除主题将不起作用89 delete.topic.enable=true
90 ############################# Zookeeper #############################91 # Zookeeper connection string (see zookeeper docs fordetails).92 # This is a comma separated host:port pairs, each corresponding to a zk93 # server. e.g. "127.0.0.1:3000,127.0.0.1:3001,127.0.0.1:3002".94 # You can also append an optional chroot stringto the urls to specify the95 # root directory forall kafka znodes.96 zookeeper.connect=mini01:2181,mini02:2181,mini03:2181,mini04:2181,mini05:2181
97
98 # Timeout in ms forconnecting to zookeeper99 zookeeper.connection.timeout.ms=6000
100
101
102 ############################# Group Coordinator Settings #############################103 # 在开发测试环境下该值设置为0,保证启动后马上可以使用。但在生产环境下,默认值3秒更适合104 group.initial.rebalance.delay.ms=3000