团队小伙伴前段时间对HBase 2.2.1的随机读写性能进行了初步的基准测试,这次测试主要目的是评估社区HBase 2.x版本的整体性能,量化当前HBase的性能指标,对常见KV场景下HBase性能表现进行评估,为业务应用提供参考。


测试环境

测试环境包括测试过程中HBase集群的拓扑结构、以及需要用到的硬件和软件资源,硬件资源包括:测试机器配置、网络状态等等,软件资源包括操作系统、HBase相关软件以及测试工具等。


  • 集群拓扑结构

本次测试中,测试环境总共包含3台物理机作为Hadoop数据存储,其中2台物理机作为RegionServer部署宿主机,每个宿主机上起2个RegionServer节点,整个集群一共4个RegionServer节点。生成数据的YCSB程序与数据库并不运行在相同的物理集群。


  • 单台机器主机硬件配置

HBase测试|HBase 2.2.1随机读写性能测试_Java


  • 软件版本信息

HBase测试|HBase 2.2.1随机读写性能测试_Java_02


  • 测试工具

HBase测试|HBase 2.2.1随机读写性能测试_Java_03

YCSB全称Yahoo! Cloud Serving Benchmark,是Yahoo公司开发的专门用于NoSQL测试的基准测试工具。Github地址:https://github.com/brianfrankcooper/YCSB

YCSB支持各种不同的数据分布方式:

  • Uniform:等概论随机选择记录

  • Zipfian:随机选择记录,存在热记录

  • Latest:近期写入的记录为热记录


  • 测试场景

YCSB为HBase提供了多种场景下的测试,本次测试中,我们导入15亿条数据,并对如下场景进行测试:

HBase测试|HBase 2.2.1随机读写性能测试_Java_04

因为是基准测试,写入和查询的数据具有以下特性:

HBase测试|HBase 2.2.1随机读写性能测试_Java_05


  • 测试核心配置参数

<!--  blockcache  -->
<property>
    <name>hfile.block.cache.size</name>
    <value>0.05</value>
</property>
<property>
    <name>hbase.bucketcache.ioengine</name>
    <value>offheap</value>
</property>
<property>
    <name>hbase.bucketcache.size</name>
    <value>61440</value>
</property>

<!-- memstore -->
<property>
    <name>hbase.regionserver.offheap.global.memstore.size</name>
    <value>30720</value>
</property>
<property>
    <name>hbase.hregion.compacting.memstore.type</name>
    <value>BASIC</value>
</property>
<property>
    <name>hbase.regionserver.global.memstore.lowerLimit</name>
    <value>0.30</value>
</property>
<property>
    <name>hbase.hregion.memstore.block.multiplier</name>
    <value>5</value>
</property>
<property>
    <name>hbase.hregion.memstore.flush.size</name>
    <value>268435456</value>
</property>


测试结果说明

  • 单纯查询场景

  • 测试参数

总记录数为15亿,分为300个region,均匀分布在4台region server上;插入操作执行20亿次,150客户端线程;

  • 测试结果

  • 吞吐量

HBase测试|HBase 2.2.1随机读写性能测试_Java_06

  • 读延迟

HBase测试|HBase 2.2.1随机读写性能测试_Java_07

HBase测试|HBase 2.2.1随机读写性能测试_Java_08

  • 资源使用情况

HBase测试|HBase 2.2.1随机读写性能测试_Java_09

  • 结果分析

  • 吞吐量曲线说明:单个实例节点稳定在3.3W左右,整个集群2台物理机稳定在11.5W左右,单台物理机稳定在5.8W左右。

  • 资源使用情况说明:IO利用率达到80%左右,磁盘单盘TPS达到1.1W次,达到比较高的使用水平。CPU使用率只有40%左右,远远没有达到瓶颈。


  • 读多写少场景

  • 测试参数

总记录数为15亿,分为300个region,均匀分布在4台region server上;查询操作执行20亿次;查询请求分布遵从zipfian分布;读写比例8:2;

  • 测试结果

  • 吞吐量

HBase测试|HBase 2.2.1随机读写性能测试_Java_10

  • 读取延迟

HBase测试|HBase 2.2.1随机读写性能测试_Java_11

HBase测试|HBase 2.2.1随机读写性能测试_Java_12

  • 资源使用情况

HBase测试|HBase 2.2.1随机读写性能测试_Java_13

  • 结果分析

  • 吞吐量曲线说明:单个实例节点稳定在2.7W左右(其中读TPS稳定在1.9W左右,写TPS稳定在0.47W左右),整个集群2台物理机稳定在10W左右,单台物理机稳定在5W左右。

  • 读取延迟说明:读P999延迟稳定在18ms左右。写P999延迟稳定在40ms左右。读写平均延迟都在1ms左右。

  • 资源使用情况说明:IO利用率达到80%左右,磁盘单盘TPS达到0.8W次,达到较高的使用水平。CPU使用率达到50%。

  • 异常情况分析

特别说明的是,测试过程中在2点28分~2点32分左右吞吐量有一个比较明显的突降,对应的P999读延迟有一个明显的飙升。直观上来看,根据资源使用情况,对应时间点测试节点的带宽有一个非常明显的突升,IOWait有一个明显的增大,对应的FsPReadTime_P999也有一个明显的增大,基本可以确定随机读P999读延迟飙升是因为IOWait突变引起的,那什么情况导致了这次网络带宽、IOWait飙升呢?可以看下面一张图:

HBase测试|HBase 2.2.1随机读写性能测试_Java_14

很明显,在2点28分~2点32分之间减少了十几个HFile文件,很容易就猜测到RegionServer执行了compaction操作导致网络带宽和硬盘IO有一个明显的消耗,导致了随机读P999飙升。

不过,HBase可以通过将hbase.regionserver.throughput.controller设置为org.apache.hadoop.hbase.regionserver.compactions.PressureAwareCompactionThroughputController开启compaction的限流功能,通过参数hbase.hstore.compaction.throughput.higher.bound限制compaction执行过程中的最大使用网络带宽。


  • 读写均衡场景

  • 测试参数

总记录数为15亿,分为300个region,均匀分布在4台region server上;查询操作执行20亿次;查询请求分布遵从zipfian分布;读写比例 5:5;

  • 测试结果

  • 吞吐量

HBase测试|HBase 2.2.1随机读写性能测试_Java_15

  • 读取延迟

HBase测试|HBase 2.2.1随机读写性能测试_Java_16

  • 资源使用情况

HBase测试|HBase 2.2.1随机读写性能测试_Java_17

  • 结果分析

  • 吞吐量曲线说明:单个实例节点稳定在2.5W左右,整个集群2台物理机稳定在10W左右,单台物理机基本稳定在5W左右。

  • 读取延迟说明:读P999延迟稳定在20ms左右,读P99延迟稳定在3ms左右。写P999延迟稳定在25ms左右。读平均延迟在1ms以内,写平均延迟在1ms以内。


  • 写多读少场景

  • 测试参数

总记录数为15亿,分为300个region,均匀分布在4台region server上;查询操作执行20亿次;查询请求分布遵从zipfian分布;读写比例2:8;

  • 测试结果

  • 吞吐量

HBase测试|HBase 2.2.1随机读写性能测试_Java_18HBase测试|HBase 2.2.1随机读写性能测试_Java_19HBase测试|HBase 2.2.1随机读写性能测试_Java_20HBase测试|HBase 2.2.1随机读写性能测试_Java_21

  • 读取延迟

HBase测试|HBase 2.2.1随机读写性能测试_Java_22

HBase测试|HBase 2.2.1随机读写性能测试_Java_23

HBase测试|HBase 2.2.1随机读写性能测试_Java_24

  • 资源使用情况

HBase测试|HBase 2.2.1随机读写性能测试_Java_25

  • 结果分析

  • 吞吐量曲线说明:单个实例节点稳定在3.5W左右,整个集群2台物理机稳定在14W左右,单台物理机稳定在7W左右。

  • 读取延迟说明:读P999延迟稳定在30ms左右,读P99延迟稳定在10ms左右。写P999延迟稳定在27ms左右。读平均延迟在1ms左右,写平均延迟在1ms以内。


测试结果分析

这次测试主要针对HBase 2.2.1这个版本进行了基准性能测试,测试结果显示无论是吞吐量还是随机读写延迟都达到了较高的水准,可以满足线上的应用场景。在我们另一个针对于真实线上数据场景(非基准数据,所以测试结果中的绝对值没有实际意义)的性能测试中对HBase 2.2.1和HBase 1.4.1这两个版本进行了对比测试,详细的测试结果就不在这里展开介绍,在读写均衡场景下,HBase 2.2.1相比HBase 1.4.1在吞吐量方面有60%的性能提升,同时随机读P999延迟从50ms降低到30ms,随机读P99从20ms降低到7ms,而且来说抖动大大减少。


HBase 官方社区推荐必读好文

HBase 原理|HBase 内存管理之 MemStore 进化论

HBase 抗战总结|阿里巴巴 HBase 高可用8年抗战回忆录

HBase 实践|说好不哭,但 HBase 2.0 真的好用到哭