kafka生产者和消费者实例配置入门:
创建主题:
kafka-topics.bat --zookeeper localhost:2181/kafka --create --topic hello-kafka --replication-factor 1 --partitions 4
一、pom文件配置:
我们这里使用 Kafka 内置的客户端 API 开发 kafka 应用程序。因为我们是 Java 程序员,所以这里我们使用 Maven ,使用最新版本
<dependency>
<groupId>org.apache.kafka</groupId>
<artifactId>kafka-clients</artifactId>
<version>2.3.0</version>
</dependency>
二、生产者代码:
1、核心代码
public static void main(String[] args) {
//TODO 生产者三个属性必须指定(broker地址清单、key和value的序列化器)
Properties properties = new Properties();
properties.put("bootstrap.servers","127.0.0.1:9092");
properties.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
properties.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");
KafkaProducer<String,String> producer = new KafkaProducer<String, String>(properties);
try {
ProducerRecord<String,String> record;
try {
//TODO 发送4条消息
for(int i=0;i<4;i++){
record = new ProducerRecord<String,String>(BusiConst.HELLO_TOPIC, null,"lison");
producer.send(record);//发送并发忘记(重试会有)
System.out.println(i+",message is sent");
}
} catch (Exception e) {
e.printStackTrace();
}
} finally {
producer.close();
}
}
2、必选属性:
创建生产者对象时有三个属性必须指定。
1)bootstrap.servers
该属性指定 broker 的地址清单,地址的格式为 host:port 。清单里不需要包含所有的 broker 地址,生产者会从给定的 broker 里查询其他 broker 的信息。 不过最少提供 2 个 broker 的信息 ( 用逗号分隔,比如 : 127.0.0.1:9092,192.168.0.13:9092) ,一旦其中一个宕机,生产者仍能连接到集群上。
2)key.serializer
生产者接口允许使用参数化类型,可以把 Java 对象作为键和值传 broker ,但是 broker 希望收到的消息的键和值都是字节数组,所以,必须提供将对象序列化成字节数组的序列化器 key.serializer 必须设置为实现 org.apache.kafka.common.serialization.Serializer 的接口类, Kafka 的客户端默认提供了 ByteArraySerializer,IntegerSerializer, StringSerializer,也可以实现自定义的序列化器。
3)value.serializer
同 key.serializer 保持一致 。
三、消费者代码:
1、核心代码
public static void main(String[] args) {
//TODO 消费者三个属性必须指定(broker地址清单、key和value的反序列化器)
Properties properties = new Properties();
properties.put("bootstrap.servers","127.0.0.1:9092");
properties.put("key.deserializer", StringDeserializer.class);
properties.put("value.deserializer", StringDeserializer.class);
//TODO 群组并非完全必须
properties.put(ConsumerConfig.GROUP_ID_CONFIG,"test1");
KafkaConsumer<String,String> consumer = new KafkaConsumer<String, String>(properties);
try {
//TODO 消费者订阅主题(可以多个)
consumer.subscribe(Collections.singletonList(BusiConst.HELLO_TOPIC));
while(true){
//TODO 拉取(新版本)
ConsumerRecords<String, String> records = consumer.poll(Duration.ofMillis(500));
for(ConsumerRecord<String, String> record:records){
//提交偏移量(提交越频繁,性能越差)
System.out.println(String.format("topic:%s,分区:%d,偏移量:%d," + "key:%s,value:%s",record.topic(),record.partition(),
record.offset(),record.key(),record.value()));
//do my work(业务异常,可能进行重试 偏移量,写入主题 异常主题)
//打包任务投入线程池
}
//提交偏移量
}
//通过另外一个线程 consumer. wakeup()
} finally {
consumer.close();
}
}
2、必选属性:
bootstrap.servers 、 key.serializer 、 value.serializer 含义同生产者一致。
group.id
并非完全必需,它指定了消费者属于哪一个群组,但是创建不属于任何一个群组的消费者并没有问题。
新版本特点:poll(Duration) 这个版本修改了这样的设计,会把元数据获取也计入整个超时时间。
四、演示需求:
1. 默认创建主题,只有一个分区时,演示生产者和消费者情况。
2. 修改主题分区为 2 (使用管理命令),再重新演示生产者和消费者情况。
到此,kafka简单的入门分享完毕,下篇我们深入分析kafka的生产者配置策略,敬请期待!