<p>在这里主要分析一下HFile V2的各个组成部分的一些细节,重点分析了HFile V2的多级索引的机制,接下去有时间的话会分析源码中对HFile的读写扫描操作。</p> <h2>HFile和流程:</h2> <p>如下图,HFile的组成分成四部分,分别是Scanned Block(数据block)、Non-Scanned block(元数据block)、Load-on-open(在hbase运行时,HFile需要加载到内存中的索引、bloom filter和文件信息)以及trailer(文件尾)。</p> <p><a href=""><img style="border-bottom: 0px; border-left: 0px; display: inline; border-top: 0px; border-right: 0px" title="clip_image002" border="0" alt="clip_image002" src="" width="494" height="366" /></a></p> <p><b>在HFile</b><b>中根据一个key</b><b>搜索一个data</b><b>的过程</b>: <br />1、先内存中对HFile的root index进行二分查找。如果支持多级索引的话,则定位到的是leaf/intermediate index,如果是单级索引,则定位到的是data block</p> <p>2、如果支持多级索引,则会从缓存/hdfs(分布式文件系统)中读取leaf/intermediate index chunk,在leaf/intermediate chunk根据key值进行二分查找(leaf/intermediate index chunk支持二分查找),找到对应的data block。</p> <p>3、从缓存/hdfs中读取data block</p> <p>4、在data block中遍历查找key。</p> <p>接下去我们分析一个HFile的各个组成部分的详细细节,重点会分析一下HFile V2的多级索引。</p> <h2>1 Hbase的KeyValue结构</h2> <p>KeyValue结构是hbase存储的核心,每个数据都是以keyValue结构在hbase中进行存储。KeyValue结构是一个有固定格式的byte数组,其结构在内存和磁盘中的格式如下:</p> <p><a href=""><img style="border-bottom: 0px; border-left: 0px; display: inline; border-top: 0px; border-right: 0px" title="image" border="0" alt="image" src="" width="440" height="224" /></a> </p> <p>The KeyValue格式:</p> <ul> <li>Keylength</li> <li>valuelength</li> <li>key</li> <li>value</li> </ul> <p>其中keylength和valuelength都是整型,表示长度。</p> <p>而key和value都是byte数据,key是有固定的数据,而value是raw data。Key的格式如下。</p> <p>The Key format:</p> <ul> <li>rowlength</li> <li>row (i.e., the rowkey)</li> <li>columnfamilylength</li> <li>columnfamily</li> <li>columnqualifier</li> <li>timestamp</li> <li>keytype </li> </ul> <p>keytype有四种类型,分别是Put、Delete、 DeleteColumn和DeleteFamily。</p> <p><b>特别说明:</b>在key的所有组成成员中,columnquallfier的长度不固定,不需要用qualifier_len字段来标示其长度,因为可以通过key_len - ((key固定长度) + row_len + columnFamily_len)获得,其中Key固定长度为 sizeof(Row_len) + sizeof(columnFamily_len) + sizeof(timestamp) + sizeof(keytype)。KeyValue是字节流形式,所以不需要考虑字节对齐。</p> <h2>2 File Trailer</h2> <p>fixedFileTrailer记录了HFile的基本信息、各个部分的偏移值和寻址信息。fileTailer拥有固定的长度,下图是HFile V1和HFile V2的差别。在FileTrailer中存储着加载一个HFile的所有信息。FileTrailer在磁盘中的分布如下图所示:</p> <p><a href=""><img style="border-bottom: 0px; border-left: 0px; display: inline; border-top: 0px; border-right: 0px" title="image" border="0" alt="image" src="" width="414" height="351" /></a> </p> <p>HFile V2见图右边。下面列举一下各个字段的含义和作用</p> <p>BlockType:block类型。</p> <p>FileInfoOffset:fileInfo的起始偏移地址。</p> <p>LoadOnOpenDataOffset:需要被加载到内存中的Hfile部分的起始地址。</p> <p>DataIndexEntriesNum:data index的root index chunk包含的index entry数目。</p> <p>UncompressedDataIndexSize:所有的未经压缩的data index的大小 。</p> <p>TmetaIndexEntriesNum:meta index entry的数目。</p> <p>totalUncompressedBytes:key value对象未经压缩的总大小。</p> <p>numEntries:key value对象的数目。</p> <p>compressionCodec:编解码算法。</p> <p>numDataIndexLeves:data block的index level。</p> <p>firstDataBlockOffset:第一个data block的起始偏移地址。Scan操作的起始。</p> <p>lastDataBlockOffset:最后一个data block的之后的第一个byte地址。记录scan的边界。</p> <p>version:版本号。</p> <h3>读取一个HFile的流程如下:</h3> <p>1、 首先读取文件尾的4字节Version信息(FileTrailer的version字段)。</p> <p>2、 根据Version信息得到Trailer的长度(不同版本有不同的长度),然后根据trailer长度,加载FileTrailer。</p> <p>3、 加载load-on-open部分到内存中,起始的文件偏移地址是trailer中的loadOnOpenDataOffset,load-on-open部分长度等于(HFile文件长度 - HFileTrailer长度)</p> <p>如下图所示:</p> <p><a href=""><img style="border-bottom: 0px; border-left: 0px; display: inline; border-top: 0px; border-right: 0px" title="image" border="0" alt="image" src="" width="208" height="244" /></a> </p> <p>Load-on-open各个部分的加载顺序如下:</p> <p>依次加载各部分的HFileBlock(load-on-open所有部分都是以HFileBlock格式存储):data index block、meta index block、FileInfo block、generate bloom filter index、和delete bloom filter。HFileBlock的格式会在下面介绍。</p> <h2>3 Load on open</h2> <p>这部分数据在HBase的region server启动时,需要加载到内存中。包括FileInfo、Bloom filter block、data block index和meta block index。</p> <h3>3.1 FileInfo</h3> <p>FileInfo中保存一些HFile的基本信息,并以PB格式写入到磁盘中。在0.96中是以PB格式进行保存。</p> <h3>3.2 HFileBlock </h3> <p>在hfile中,所有的索引和数据都是以HFileBlock的格式存在在hdfs中,</p> <p>HFile version2的Block格式如下两图所示,有两种类型,第一种类型是没有checksum;第二种是包含checksum。对于block,下图中的绿色和浅绿色的内存是block header;深红部分是block data;粉红部分是checksum。</p> <p>第一种block的header长度= 8 + 2 * 4 + 8;</p> <p>第二种block的header长度=8 + 2 * 4 + 8 + 1 + 4 * 2;</p> <p><a href=""><img style="border-bottom: 0px; border-left: 0px; display: inline; border-top: 0px; border-right: 0px" title="image" border="0" alt="image" src="" width="343" height="200" /></a> </p> <p> 图3.1 不支持checksum的block </p> <p><a href=""><img style="border-bottom: 0px; border-left: 0px; display: inline; border-top: 0px; border-right: 0px" title="image" border="0" alt="image" src="" width="376" height="367" /></a> </p> <p> 图 3.2 支持checksum的block</p> <p>BlockType:8个字节的magic,表示不同的block 类型。</p> <p>CompressedBlockSize:表示压缩的block 数据大小(也就是在HDFS中的HFileBlock数据长度),不包括header长度。</p> <p>UncompressedBlockSize:表示未经压缩的block数据大小,不包括header长度。</p> <p>PreBlockOffset:前一个block的在hfile中的偏移地址;用于访问前一个block而不用跳到前一个block中,实现类似于链表的功能。</p> <p>CheckSumType:在支持block checksum中,表示checksum的类型。</p> <p>bytePerCheckSum:在支持checksum的block中,记录了在checksumChunk中的字节数;records the number of bytes in a checksum chunk。</p> <p>SizeDataOnDisk:在支持checksum的block中,记录了block在disk中的数据大小,不包括checksumChunk。</p> <h3>DataBlock</h3> <p>DataBlock是用于存储具体kv数据的block,相对于索引和meta(这里的meta是指bloom filter)DataBlock的格式比较简单。</p> <p>在DataBlock中,KeyValue的分布如下图,在KeyValue后面跟一个timestamp。</p> <p><a href=""><img style="border-bottom: 0px; border-left: 0px; display: inline; border-top: 0px; border-right: 0px" title="image" border="0" alt="image" src="" width="326" height="254" /></a> </p> <h3>3.3 HFileIndex</h3> <p>HFile中的index level是不固定的,根据不同的数据类型和数据大小有不同的选择,主要有两类,一类是single-level(单级索引),另一类是multi-level(多级索引,索引block无法在内存中存放,所以采用多级索引)。</p> <p>HFile中的index chunk有两大类,分别是root index chunk、nonRoot index chunk。而nonRoot index chunk又分为interMetadiate index chunk和leaf index chunk,但intermetadiate index chunk和leaf index chunk在内存中的分布是一样的。</p> <p>对于meta block和bloom block,采用的索引是single-level形式,采用single-level时,只用root index chunk来保存指向block的索引信息(root_index-->xxx_block)。</p> <p>而对于data,当HFile的data block数量较少时,采用的是single level(root_index-->data_block)。当data block数量较多时,采用的是multi-level,一般情况下是两级索引,使用root index chunk和leaf index chunk来保存索引信息(root_index-->leaf_index-->data_block);但当data block数量很多时,采用的是三级索引,使用root index chunk、intermetadiate index chunk和leaf index chunk来保存指向数据的索引(root_index-->intermediate_index-->leaf_index-->data_block)。</p> <p>所有的index chunk都是以HFileBlock格式进行存放的,首先是一个HFileBlock Header,然后才是index chunk的内容。</p> <h4>Root Index </h4> <p>Root index适用于两种情况:</p> <p>1、作为data索引的根索引。</p> <p>2、作为meta和bloom的索引。</p> <p>在Hfile Version2中,Meta index和bloom index都是single-level,也都采用root索引的格式。Data index可以single-level和multi-level的这形式。Root index可以表示single-level index也可以表示multi-level的first level。但这两种表示方式在内存中的存储方式是由一定差别,见图3.3和3.4。</p> <p><a href=""><img style="border-bottom: 0px; border-left: 0px; display: inline; border-top: 0px; border-right: 0px" title="image" border="0" alt="image" src="" width="342" height="174" /></a> </p> <p> 图3.3 single-level root index</p> <p><a href=""><img style="border-bottom: 0px; border-left: 0px; display: inline; border-top: 0px; border-right: 0px" title="image" border="0" alt="image" src="" width="405" height="263" /></a> </p> <p> 图3.4 multi-level root index</p> <h4>Single-level</h4> <p>root索引是会被加载到内存中。在磁盘的格式见图3.4。</p> <p>index entry的组成含义如下:</p> <p>1、Offset (long):表示索引对应的block在Hfile文件中的偏移值。</p> <p>2、On-disk size (int):表示索引对应的block在disk(Hfile文件)中的长度。</p> <p>3、Key:Key是在内存中存储的byte array,分成两部分,其中一部分是key长度,另一部分是key数据。 Key值应该是index entry对应的data block的first row key。不论这个block是leaf index chunk还是data block或者是meta block。</p> <h4>Mid-key and multi-level</h4> <p>对于multi-level root index,除了上面index entry数组之外还带有格外的数据mid-key的信息,这个mid-key是用于在对hfile进行split时,快速定位HFile的中间位置所使用。Multi-level root index在硬盘中的格式见图3.4。</p> <p>Mid-key的含义:如果HFile总共有n个data block,那么mid-key就是能定位到第(n - 1)/2个data block的信息。</p> <p>Mid-key的信息组成如下:</p> <p>1、Offset:所在的leaf index chunk的起始偏移量</p> <p>2、On-disk size:所在的leaf index chunk的长度</p> <p>3、Key:在leaf index chunk中的位置。</p> <p>如下图所示:第(n – 1)/2个data block位于第i个LeafIndexChunk,如果LeafIndexChunk[i]的第一个data block的序号为k,那么offset、on-disk size以及key的值如下:</p> <p>Offset为 LeafIndexChunk[i] 的offset</p> <p>On-disk size为LeafIndexChunk[i] 的size</p> <p>Key为(n – 1)/2 – k</p> <p><a href=""><img style="border-bottom: 0px; border-left: 0px; display: inline; border-top: 0px; border-right: 0px" title="image" border="0" alt="image" src="" width="509" height="164" /></a> </p> <p> 图 3.6 mid-key示意图</p> <h4>NonRoot index</h4> <p>当HFile以multi-level来索引数据block时,会引入nonRoot index与root index一起构建整个索引。Nonroot索引包括Intermediate index和leaf index这两种类型,这两种索引在disk中的格式一致,都统一使用NonRoot格式进行存放,但用途和存放的位置不同。</p> <p>Intermediate index是在当HFile的数据block太多或内存存在限制时,使用两级数据索引时导致root index chunk超过其最大值,所以通过增加索引的级数,将intermediate index作为second level,以此来保证root index chunk的大小在一定限制内,减少加载到内存中时的内存消耗。</p> <p>intermediate index chunk中的每个index Entry都指向一个leaf index chunk。Intermediate index chunk在加载时不会被加载到内存中。Intermediate index chunk在HFile中存储的位置是紧挨着root index chunk。在写入root index chunk时,会检查root index chunk的容量是否超过最大值,如果超过,那么将root index chunk划分成多个intermediate index chunk,然后重新生成一个root index entry,新root index entry中的每一个index entry都是指向intermediate index chunk。先将各个intermediate index chunk写入到disk中,然后再写入root index chunk,如下图所示。</p> <p><a href=""><img style="border-bottom: 0px; border-left: 0px; display: inline; border-top: 0px; border-right: 0px" title="image" border="0" alt="image" src="" width="364" height="364" /></a> </p> <p>HFile使用multi-level index来索引data block时,Leaf index chunk是作为最末一级,leaf index chunk中的index entry是保存指向datablock的数据。Leaf index chunk也是以nonRoot格式来进行存储的,见图3.4,与intermediate index chunk一样,都样不会在加载hfile时被加载到内存中。</p> <p>nonRoot索引增加了secondIndexOffset,作为二级索引,用于实现二分查找;而而nonRoot索引不会加载到内存中。增加nonRoot索引的目的就是解决在存储数据过大时导致索引的数量量也增加,无法加载到内存中,从而增加了seek和read时的开销。NonRoot index在磁盘中的格式如下图:</p> <p><a href=""><img style="border-bottom: 0px; border-left: 0px; display: inline; border-top: 0px; border-right: 0px" title="image" border="0" alt="image" src="" width="554" height="309" /></a> </p> <p> 图 non Root index</p> <p>1、BlockNumber:索引条目的数目。</p> <p>2、secondaryIndexOffset:每一个secondaryIndexOffset都是表示index entry在leaf索引block中的相对偏移值(相对于第一个index entry),它是作为index entry的二级索引,用于实现快速搜索(二分法查找)。如下图所示,第一个secondaryIndexOffset的偏移值为0,往后都是index entry在disk中的长度相加。</p> <p>3、curTotalNonRootEntrySize:leaf索引块中所有index entry在disk中总的大小。 </p> <p>4、Index Entries:每一个条目都包含三个部分</p> <p>Offset:entry引用的block在文件中的偏移地址 </p> <p>On-disk size:block在硬盘中的大小 </p> <p>Key:block中的first row key. key不需要像在root索引中按照key length和keyvalue进行保存,因为有secondaryIndexOffset的存在,已经不需要通过key length来识别各个index entry的边界。</p> <h4>NonRoot索引的二分查找实现</h4> <p>1、首先NonRoot索引中的Index_entry需要按照顺序排列,这个顺序是通过key值的大小来决定的。key值应该就是row的key值。</p> <p>2、使用secondaryIndexOffset实现二分查找。</p> <h4><b>二分查找的原理</b><b></b></h4> <p>如果要查找一个InputKey所处的位置</p> <p> 首先将位置初始化,row为0,high为BlockNumber - 1</p> <p> 循环:</p> <p> mid= (low + high) / 2</p> <p> 定位到中间位置的index Entry</p> <p> 将index Entry的key值与InputKey进行比较</p> <p> 如果 key > inputKey</p> <p> Row = mid + 1</p> <p> 如果 key == inputKey</p> <p> 找到正确对象,返回</p> <p> 如果 key < inputKey</p> <p> High = mid – 1</p> <h4><strong>快速定位</strong></h4> <p><a href=""><img style="border-bottom: 0px; border-left: 0px; display: inline; border-top: 0px; border-right: 0px" title="image" border="0" alt="image" src="" width="427" height="305" /></a> </p> <p> 3.9 indexEntry偏移值计算</p> <p>每一个secondaryIndexOffset是四个字节,secondaryIndexOffset的值是index Entry的相对偏移。见上图,对于一个序号为i的index entry,其在leaf索引chunk中的绝对偏移值为</p> <p>“( BlockNumber + 2 ) * sizeof( int ) + secondaryIndexOffset[i]”</p> <p><a href=""><img style="border-bottom: 0px; border-left: 0px; display: inline; border-top: 0px; border-right: 0px" title="image" border="0" alt="image" src="" width="244" height="101" /></a> </p> <p> 图 3.10 key值相对于index Entry的偏移</p> <p>见上图,那么key的长度等于indexEntryOffset[i + 1] - (indexEntryOffset[i] + 4 * 8)</p> <h3>Bloom filter</h3> <p>在HFile中,bloom filter的meta index也是作为load-on-open的一部分保存,bloom fiter有两种类型,一种是generate bloom filter,用于快速确定key是否存储在hbase中;另一种是delete bloom filter,用于快速确定key是否已经被删除。</p> <p>Bloom filter meta index在硬盘中的格式如下:</p> <p><a href=""><img style="border-bottom: 0px; border-left: 0px; display: inline; border-top: 0px; border-right: 0px" title="clip_image032" border="0" alt="clip_image032" src="" width="357" height="389" /></a></p> <p> Bloom meta index在磁盘中的格式如上图所示。</p> <p>Version:表示版本;</p> <p>totalByteSize:表示bloom filter的位组的bit数。</p> <p>HashCount:表示一个key在位组中用几个bit位来进行定位。</p> <p>HashType:表示hash函数的类型。</p> <p>totalKeyCount:表示bloom filter当前已经包含的key的数目.</p> <p>totalKeyMaxs:表示bloom filter当前最多包含的key的数目.</p> <p>numChunks:表示bloom filter中包含的bloom filter block的数目.</p> <p>comparatorName:表示比较器的名字.</p> <p>接下去是每一个Bloom filter block的索引条目。</p> <p> </p> <p>作者zy, QQ105789990</p>
hbase生态 hbase hfile
转载本文章为转载内容,我们尊重原作者对文章享有的著作权。如有内容错误或侵权问题,欢迎原作者联系我们进行内容更正或删除文章。
提问和评论都可以,用心的回复会被更多人看到
评论
发布评论
相关文章
-
分布式数据库 HBase实践
07 手机云服务数据存储
数据存储 云服务 -
共创数字经济新生态,华为云生态领航者·AI先遣队圆满落幕
将AI与大模型的生产力变革有效转化为企业的竞争优势,成为每位决策者案头亟需解答的时代命题。
解决方案 基础设施 应用场景 AI大模型 AI -
hbase的hfile存储再哪里 hbase hfile命令
hbase常用命令,留存 hbase shell命令 描述&nbs
hbase的hfile存储再哪里 Hbase shell 数据 hadoop 限定符 -
bulkload命令 hbase hbase load hfile
图1 从图1可知,HFile主要分四部
bulkload命令 hbase 数据 java 字段