kafka生产者和消费者实例配置入门:

创建主题:

kafka-topics.bat --zookeeper localhost:2181/kafka --create --topic hello-kafka --replication-factor 1 --partitions 4

一、pom文件配置: 


我们这里使用 Kafka 内置的客户端 API 开发 kafka 应用程序。因为我们是 Java 程序员,所以这里我们使用 Maven ,使用最新版本


<dependency>
 <groupId>org.apache.kafka</groupId>
 <artifactId>kafka-clients</artifactId>
<version>2.3.0</version> 
</dependency>

二、生产者代码:

1、核心代码

public static void main(String[] args) {
        //TODO 生产者三个属性必须指定(broker地址清单、key和value的序列化器)
        Properties properties = new Properties();
        properties.put("bootstrap.servers","127.0.0.1:9092");
        properties.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
        properties.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");
        KafkaProducer<String,String> producer = new KafkaProducer<String, String>(properties);
        try {
            ProducerRecord<String,String> record;
            try {
                //TODO 发送4条消息
                for(int i=0;i<4;i++){
                    record = new ProducerRecord<String,String>(BusiConst.HELLO_TOPIC, null,"lison");
                    producer.send(record);//发送并发忘记(重试会有)
                    System.out.println(i+",message is sent");
                }
            } catch (Exception e) {
                e.printStackTrace();
            }
        } finally {
            producer.close();
        }
    }

2、必选属性:


创建生产者对象时有三个属性必须指定。



1)bootstrap.servers



该属性指定 broker 的地址清单,地址的格式为 host:port 。清单里不需要包含所有的 broker 地址,生产者会从给定的 broker 里查询其他 broker 的信息。 不过最少提供 2 个 broker 的信息 ( 用逗号分隔,比如 : 127.0.0.1:9092,192.168.0.13:9092) ,一旦其中一个宕机,生产者仍能连接到集群上。



2)key.serializer



生产者接口允许使用参数化类型,可以把 Java 对象作为键和值传 broker ,但是 broker 希望收到的消息的键和值都是字节数组,所以,必须提供将对象序列化成字节数组的序列化器 key.serializer 必须设置为实现 org.apache.kafka.common.serialization.Serializer 的接口类, Kafka 的客户端默认提供了 ByteArraySerializer,IntegerSerializer, StringSerializer,也可以实现自定义的序列化器。



3)value.serializer



同 key.serializer 保持一致 。


三、消费者代码:

1、核心代码

public static void main(String[] args) {
        //TODO 消费者三个属性必须指定(broker地址清单、key和value的反序列化器)
        Properties properties = new Properties();
        properties.put("bootstrap.servers","127.0.0.1:9092");
        properties.put("key.deserializer", StringDeserializer.class);
        properties.put("value.deserializer", StringDeserializer.class);

        //TODO 群组并非完全必须
        properties.put(ConsumerConfig.GROUP_ID_CONFIG,"test1");
        KafkaConsumer<String,String> consumer = new KafkaConsumer<String, String>(properties);
        try {
            //TODO 消费者订阅主题(可以多个)
            consumer.subscribe(Collections.singletonList(BusiConst.HELLO_TOPIC));
            while(true){
                //TODO 拉取(新版本)
                ConsumerRecords<String, String> records = consumer.poll(Duration.ofMillis(500));
                for(ConsumerRecord<String, String> record:records){
                    //提交偏移量(提交越频繁,性能越差)
                    System.out.println(String.format("topic:%s,分区:%d,偏移量:%d," + "key:%s,value:%s",record.topic(),record.partition(),
                            record.offset(),record.key(),record.value()));
                    //do my work(业务异常,可能进行重试  偏移量,写入主题 异常主题)
                    //打包任务投入线程池
                }
                //提交偏移量
            }

            //通过另外一个线程 consumer. wakeup()
        } finally {
            consumer.close();
        }

    }

2、必选属性:


bootstrap.servers 、 key.serializer 、 value.serializer 含义同生产者一致。



group.id



并非完全必需,它指定了消费者属于哪一个群组,但是创建不属于任何一个群组的消费者并没有问题。



新版本特点:poll(Duration) 这个版本修改了这样的设计,会把元数据获取也计入整个超时时间。




四、演示需求:


1. 默认创建主题,只有一个分区时,演示生产者和消费者情况。


2. 修改主题分区为 2 (使用管理命令),再重新演示生产者和消费者情况。


到此,kafka简单的入门分享完毕,下篇我们深入分析kafka的生产者配置策略,敬请期待!