时间如流水,一去不复返。自古不乏对时间流逝的感慨,而现代已经有很多技术记录流逝的过去。我们可以拍照,可以录像,当然还可以用时序数据库!

时序数据库是专门存放随着时间推移而不断变化的数据。近些年,随着IoT等概念的流行,时序数据库成为数据库一个相对独立的领域逐渐受到重视,广泛应用于物联网、监控系统、金融、医疗和零售等多种场景。

OpenTSDB原理|解密云HBase时序引擎OpenTSDB优化技术_Java

过去12个月时序数据库(Time Series DBMS)热度不断增长


那么云上的用户如何构建一个存储海量数据的时序数据库呢?笔者这里推荐使用云HBase + OpenTSDB方案。云HBase是使用阿里多年优化过的HBase内核版本,本文不作过多介绍,详情请看产品主页:

https://cn.aliyun.com/product/hbase


OpenTSDB简介

OpenTSDB是一款基于HBase构建的时序数据库,它的数据存储完全交给HBase,本身没有任何数据存储。所有节点是对等的,所以部署起来其实是非常方便的。因为基于HBase,所以本身就具备了横向扩展,存储海量数据的能力。常见的部署模式有2种,一种分离部署,一种混合部署。

  • 独立部署,即与多个业务共享一个HBase。适合时序业务较小,或者用不满HBase资源。

OpenTSDB原理|解密云HBase时序引擎OpenTSDB优化技术_Java_02

  • 混合部署,即TSDB进程和RS在一个VM内。适合时序业务较重,需要独享HBase。

OpenTSDB原理|解密云HBase时序引擎OpenTSDB优化技术_Java_03

上述2种模式,云HBase产品都能提供支持。


OpenTSDB数据定义

OpenTSDB原理|解密云HBase时序引擎OpenTSDB优化技术_Java_04


一条时间线由Metirc + 多个tag唯一确定,时间线上会有源源不断的数据点(Data Point)写入,数据点由时间戳和值组成。OpenTSDB支持秒级(10位整数),毫秒级别(13位整数)两种时间精度。

举个例子,比如我们监控一个手环收集的心跳信息,那么我们可以这样定义:

Metric: "band.heartbeat"
Tags: "id"               # 只定义一个tag,就是手环的ID


那么我们通过 band.heartbeat  + id=1  就能查询到编为1的手环收集到的心跳信息。


OpenTSDB数据存储格式
  • 数据表整体设计

OpenTSDB原理|解密云HBase时序引擎OpenTSDB优化技术_Java_05

这个设计有几个特点:

  1. metric和tag映射成UID,不存储实际字符串,以节约空间。

  2. 每条时间线每小时的数据点归在一行,每列是一个数据点,这样每列只需要记录与这行起始时间偏移,以节省空间。

  3. 每列就是一个KeyValue,如果是毫秒精度,一行最多可以有3600000个KV,这里其实会有些问题,后面会讲到。



  • RowKey格式

OpenTSDB原理|解密云HBase时序引擎OpenTSDB优化技术_Java_06

  1. salt:打散同一metric不同时间线的热点

  2. metric, tagK, tagV:实际存储的是字符串对应的UID(在tsdb-uid表中)

  3. timestamp:每小时数据存在一行,记录的是每小时整点秒级时间戳


  • metric和tag

它们长度默认是3个字节,即最多只能分配2^24=16777216个UID。可以通过这些参数调整:

tsd.storage.uid.width.metric # metric UID长度,默认3
tsd.storage.uid.width.tagk   # tagK UID长度,默认3
tsd.storage.uid.width.tagv   # tagV UID长度 默认3
# 这3者的UID分配分别是独立的空间

注意:
集群已经写过数据后就无法修改,所以最好是一开始就确定好,建议4个字节。因为使用压缩技术后,RowKey多占的几个字节可以忽略,下文会提到。


  • salt

salt这个东西最好根据自己HBase集群规模去配置,它有2个配置:

tsd.storage.salt.width   # 默认1,1基本够了,不用调整
tsd.storage.salt.buckets # 打散到几个bucket去,默认20

查询的时候会并发tsd.storage.salt.buckets个Scanner到HBase上,所以如果这个配置太大,对查询影响比较大,容易打爆HBase。这里其实是一个权衡,写入热点和查询压力。默认20其实我个人觉得有点多,配置3~8就差不多了,当然实际效果还和metric设计有关,如果在一个metric里设计了很多时间线,那就得配置很多bucket。在一个metric中设计过多时间线,会影响OpenTSDB的查询效率,所以不建议这么做。

这个参数也是设置了就不能改的,所以也是要一开始规划好。


Column格式

OpenTSDB原理|解密云HBase时序引擎OpenTSDB优化技术_Java_07


这是列名(HBase中称为qualifier)的格式,可以看到毫米级需要多出2个字节。所以如果你的采集间隔不需要精确到毫秒级别,那请一定使用秒级(10位整数)。Value只能存储整数和浮点,所以有一个bit存储Float flag。

这里大家一定会有疑问,直接通过qualifier长度是4还是2不就能判断是秒级精度的数据点,还是毫秒了么?为何还需要MS flag这样一个标记信息?阅读下面的“压缩”部分,就能知道为什么。


OpenTSDB压缩问题

OpenTSDB有个很常见并且很麻烦的问题,就是整点时候对HBase对流量冲击。下面2张图是我们一个测试集群只做写入对效果:

OpenTSDB原理|解密云HBase时序引擎OpenTSDB优化技术_Java_08OpenTSDB原理|解密云HBase时序引擎OpenTSDB优化技术_Java_09

OpenTSDB                                                       HBase

可以看到会有一个数倍流量的爆发,要持续很久才能消化。这意味着我们需要更高规格去抗这个峰值。首先我们要明白OpenTSDB为啥要做压缩?在压缩些什么东西?
前面提到过OpenTSDB一行一小时的特点,那么一行里会有很多KV。表面上看起来好像没什么问题,但是实际上对比逻辑视图和物理视图你会发现一些问题。

OpenTSDB原理|解密云HBase时序引擎OpenTSDB优化技术_Java_10


很明显,每个KV都记录了rowX,那rowX就是一个空间浪费。这个空间不仅影响成本,还影响查询效率(毕竟数据多了)。压缩做的事情就是把多个小KV合成1个大KV,减少这部分浪费。所以压缩的时候会涉及到对HBase的“读-写-删”,这就是整点HBase IO流量的来源。
那么我们有没有办法,既做压缩,同时又消除这部分HBase IO呢?
当然有!我们可以把压缩的逻辑放到HBase内部去。因为HBase本身就需要对HFile做合并工作,这时候HBase本身就会读写数据文件,这部分对HDFS的IO不会少,而我们通过hook在HBase读出数据后,替换掉要写入的数据(即压缩好的数据)。

OpenTSDB原理|解密云HBase时序引擎OpenTSDB优化技术_Java_11

OpenTSDB原理|解密云HBase时序引擎OpenTSDB优化技术_Java_12

实现上面这个功能,当然需要一定内核开发量。好消息是通过云HBase购买页面购买的时序引擎,已经自带了上述功能。不管是分离部署模式,还是混合部署模式。
这个功能的好处显而易见,消除峰值节省成本,提升集群稳定性。这样我们对一个现有的HBase集群空闲资源需求就不是那么高了,完全可以复用了。下面是使用此功能后,同样只做写入的测试集群的流量情况:

OpenTSDB原理|解密云HBase时序引擎OpenTSDB优化技术_Java_13


HBase 官方社区推荐必读好文

HBase 原理|HBase 内存管理之 MemStore 进化论

HBase 抗战总结|阿里巴巴 HBase 高可用8年抗战回忆录

HBase 实践|说好不哭,但 HBase 2.0 真的好用到哭