最近跟数据部门对接时对方提供的kafka订阅服务,于是找了资料,写了个C#控制台程序消费了这个服务。
本文主要记录的内容是C#消费Kafka消息时选用kafka-net组件,遇到offset不是从0开始的情况时处理方法。
按照入门教程搭建测试环境并调试一切正常。
在生产环境中部署后遇到一直闪烁却无法消费的问题,看日志是可以连接成功的,后来跟生产方沟通后得知运维在部署kafka的时候设置了消息保留3天。
那么三天前的消息自动清除后,前面的offset在kafka里已经不存在了,这时候我们把offset设置成0时就会出现上述情况,那怎么获得起始的offset呢?
一、首先在本地安装jdk、Kafka和zookeeper。
1、jdk建议使用1.7以上版本。
2、下载安装并运行zookeeper (下载地址 http://zookeeper.apache.org/releases.html)
3、安装并运行Kafka (下载地址 http://kafka.apache.org/downloads.html)
如上安装步骤在车江毅的博客《.net windows Kafka 安装与使用入门(入门笔记)》中写的很详细,我就不重复了。
二、在kafka中创建topic、生产者、消费者,上述博客中有详细命令,这里跳过。
三、根据上述博客中推荐,选用了kafka-net。
1、生产者代码
private static void Produce(string broker, string topic,string message)
{
var options = new KafkaOptions(new Uri(broker));
var router = new BrokerRouter(options);
var client = new Producer(router);
var currentDatetime = DateTime.Now;
var key = currentDatetime.Second.ToString();
var events = new[] { new Message(message) };
client.SendMessageAsync(topic, events).Wait(1500);
Console.WriteLine("Produced: Key: {0}. Message: {1}", key, events[0].Value.ToUtf8String());
using (client) { }
}
//调用示例:
Produce("http://地址:端口", "TopicName", "Hello World");
2、消费者代码,上面都是为了搭建测试环境,这次的任务是消费其他组提供的kafka消息
private static void Consume(string broker, string topic)
{
Uri[] UriArr = Array.ConvertAll<string, Uri>(broker.Split(','), delegate (string s) { return new Uri(s); });
var options = new KafkaOptions(UriArr);
var router = new BrokerRouter(options);
var consumer = new Consumer(new ConsumerOptions(topic, router));
//实际生产环境中消费不是每次都从0 offset开始的,查了资料发现java可以设置自动参数配置从最小offset开始或者最大offset开始
//但kafka-net这个sdk中没有找到,所以就下面这段代码配置了offset的起始位置
Task<List<OffsetResponse>> offTask = consumer.GetTopicOffsetAsync(topic);
var offsetResponseList = offTask.Result;
var positionArr = new OffsetPosition[offsetResponseList.Count];
for (int i = 0; i < offsetResponseList.Count; i++)
{
//LogHelper.WriteLog(string.Format("获取到Kafka OffsetPosition信息 Partition:{0} maxOffset:{1} minOffset:{2}", offsetResponseList[i].PartitionId, offsetResponseList[i].Offsets[0], offsetResponseList[i].Offsets[1]));
positionArr[i] = new OffsetPosition(offsetResponseList[i].PartitionId, offsetResponseList[i].Offsets[1]);//这里Offsets[0]是最大值,我们从头消费用的最小值Offsets[1]
}
Console.WriteLine("开始执行");
//如果作业执行一段时间后重启,下面可以从数据库中读取后再配置开始读取的位置
/*
try
{
using (IDbConnection dbConn = SingleDataBase.DBFactory.OpenRead<MessageQueue>())
{
string sql = string.Format("SELECT [Partition], MAX(Offset)Offset FROM [表名] WITH(NOLOCK) WHERE topic='{0}' GROUP BY [Partition]", topic);
var r = dbConn.SqlList<OffsetPositionEntity>(sql);
if (r.Count > 0)
{
positionArr = Array.ConvertAll<OffsetPositionEntity, OffsetPosition>(r.ToArray(), delegate (OffsetPositionEntity p) { return new OffsetPosition(p.Partition, p.Offset + 1); });
}
}
}
catch
{
//读取上次获取位置失败,从头开始获取,可能会导致重复获取
//LogHelper.WriteLog("没有获取到上次截至节点,将从头开始获取");
}
*/
consumer.SetOffsetPosition(positionArr);
//Consume returns a blocking IEnumerable (ie: never ending stream)
foreach (var message in consumer.Consume())
{
try
{
string messageStr = message.Value.ToUtf8String();
Console.WriteLine(messageStr);
long r = 0;
/*这里已经删掉了写入数据库部分*/
//LogHelper.WriteLog(string.Format("Response: Partition {0},Offset {1} : {2} ,Insert : {3}", message.Meta.PartitionId, message.Meta.Offset, messageStr, r));
}
catch (Exception ex)
{
//LogHelper.WriteLog("消费Kafka消息保存到数据库时报错:" + ex.Message);
}
}
}
//调用示例:
Consume("http://100.162.136.70:9092,http://100.162.136.71:9092,http://100.162.136.72:9092", "YourTopicName");
以上代码中LogHelper.WriteLog部分用Console.WriteLine替换后可以直接输出到屏幕上,这里没有提供写日志相关方法。
这篇文章写出来,就是为了记录高亮显示的那部分片段,其他都是为了让文章尽可能的完整。