一、了解HBase

 1.1HBase定义

如果需要进行实时读写或者随机访问大规模的数据集的时候会考虑使用HBase。

  HBase作为Google Bigtable的开源实现,Google Bigtable利用GFS作为其文件存储系统类似,则HBase利用Hadoop HDFS作为其文件存储系统;Google通过运行MapReduce来处理Bigtable中的海量数据,同样,HBase利用Hadoop MapReduce来处理HBase中的海量数据;Google Bigtable利用Chubby作为协同服务,HBase利用Zookeeper作为对应。在2010年5月,成为apache顶级项目。

1.2HBase处理数据

  HBase不适用与提供实时计算但是可以提供实时计算的分布式数据库,数据被保存在HDFS分布式文件系统上,由HDFS保证高容错性。

  在生产环境中,HBase是如何提供实时性?

  HBase上的数据是以StoreFile(HFile)二进制流的形式存储在HDFS上的block块中;但是HDFS并不知道HBase用于存储什么,他只把存储文件认为是二进制文件,也就是说,HBase的存储数据对于HDFS文件系统是透明的。

1.3HBase与HDFS的比较:

简述Hbase系统在hadoop生态圈中的地位 hbase是构建在hadoop上的一种_Hadoop

 

 

 

二、HBase相关概念

2.1分布式数据库

  分布式数据库简单点说就是将一张表分割成多个片段分别存储在不同的结点上。

简述Hbase系统在hadoop生态圈中的地位 hbase是构建在hadoop上的一种_Hadoop_02

 

 

 2.2列式存储

HBase是一个列式存储分布式数据库,首先将表横向拆分成多个片段(region 行范围型数据)每个片段被HBase不同的服务器进行管理,HBase通过HDFS客户端存储到HDFS上。

行式存储:将表中数据按照行优先,一行行的存储。

列式存储:将表中数据按照列优先,即将表中数据按照一列一列的方式存储,有查询快,便于压缩的优点。在HBase中会对列进行分类(列簇 column family)。

2.3稀疏性

稀疏性导致HBase存储数据时表+列簇是必须项。

HBase在存储数据时,由于有了列簇这个标签,即使某几列上没有数据也不需要像结构化数据库那样用null或者0来补齐。只需要将某列上的数据存放在对应的列簇下面。

2.4数据模型

HBase通过表格的模式存储数据,每个表格由列和行组成,其中,每个列又被划分为若干个列簇

  表:HBase的数据同样是用表来组织的,表由行和列组成,列分为若干个列簇,行和列坐标交叉决定了一个单元格。

  行:每个表由若干行组成,每个行有一个行键作为该行的唯一标识。访问表中的行只有三种方式:通过单个行键查询,通过一个行键的区间来访问,全表扫描。

  列簇:一个HBase表被分为许多列簇的集合,它是基本的访问控制单元。

  列修饰符(列限定符):烈祖里的数据通过列限定符来定位(字段)

  单元格:在HBase表中通过行、列簇和列限定符确定一个“单元格”(cell),单元格中存储的数据没有数据类型,总被视为字节数组byte[]

  时间戳:每个单元格都保存着同一份数据的多个版本,这些版本采用时间戳进行索引

  2.4.1HBase数据模型

  HBase将数据存放在带有标签的中,表由行和列组成,行和列交叉确定一个单元格,单元格有版本号,版本号自动分配,为数据插入该单元格时的时间戳。单元格的内容没有数据类型,所有数据都被视为未解释的字节数组

行键(也是字节数组,任何形式的数据都可以表示成字符串,比如数据结构进行序列化之后),整个表根据行键的字节序来排序,所有对表的访问必须通过行键。

列族(column family),同一个列族的所有成员具有相同的前缀,具体的列由列修饰符标识,因此,列族和列修饰符合起来才可以表示某一列,比如:info:format、cotents:image

在创建一个表的时候,列族必须作为模式定义的一部分预先给出,而列族是支持动态扩展的,也就是列族成员可以随后按需加入。物理上,所有的列族成员一起存放在文件系统上,所以实际上说HBase是面向列的数据库,更准确的应该是面向列族,调优和存储都是在列族这个层次上进行的。一般情况下,同一个列族的成员最后具有相同的访问模式和大小特征。

行按行键排序,列划分为列族,单元格有版本号,没有数据类型。

简述Hbase系统在hadoop生态圈中的地位 hbase是构建在hadoop上的一种_Hadoop_03

 

 

 2.4.2HBase数据坐标

  HBase中需要根据表名,行键,列簇,列限定符和时间戳来确定一个单元格(cell),cell中的数据是没有类型的,全部是字节码形式存储。英雌可视为一个思维坐标,即[行键,列簇,列限定符,时间戳]。

2.4.3HBase区域

HBase自动把表水平划分为区域(Region),每个区域都是有若干连续行构成的,一个区域由所属的表、起始行、终止行(不包括这行)三个要素来表示。

基本相同的区域。然后随着数据的再增加,区域就不断的增加,如果超出了单台服务器的容量,就可以把一些区域放到其他节点上去,构成一个集群。也就是说:集群中的每个节点(Region Server)管理整个表的若干个区域。所以,我们说:区域是HBase集群上分布数据的最小单位

简述Hbase系统在hadoop生态圈中的地位 hbase是构建在hadoop上的一种_Hadoop_04

 

 

 三、HBase系统架构

3.1架构图

简述Hbase系统在hadoop生态圈中的地位 hbase是构建在hadoop上的一种_Hadoop_05

 

 3.2组件介绍

HBase由三种类型的服务器以主从模式构成:

  • Region Server:负责数据的读写服务,用户通过与Region server交互来实现对数据的访问。
  • HBase HMaster:负责Region的分配及数据库的创建和删除等操作。
  • ZooKeeper:负责维护集群的状态(某台服务器是否在线,服务器之间数据的同步操作及master的选举等)。

HDFS的DataNode负责存储所有Region Server所管理的数据,即HBase中的所有数据都是以HDFS文件的形式存储的。出于使Region server所管理的数据更加本地化的考虑,Region server是根据DataNode分布的。HBase的数据在写入的时候都存储在本地。但当某一个region被移除或被重新分配的时候,就可能产生数据不在本地的情况。这种情况只有在所谓的compaction之后才能解决。

Client

包含访问HBase的接口并维护cache来加快对HBase的访问

Zookeeper

保证任何时候,集群中只有一个master

存贮所有Region的寻址入口。

实时监控Region server的上线和下线信息。并实时通知Master

存储HBase的schema和table元数据

Master

为Region server分配region

负责Region server的负载均衡

发现失效的Region server并重新分配其上的region

管理用户对table的增删改操作

RegionServer

Region server维护region,处理对这些region的IO请求

Region server负责切分在运行过程中变得过大的region 

HLog(WAL log):

HLog文件就是一个普通的Hadoop Sequence File,Sequence File 的Key是 HLogKey对象,HLogKey中记录了写入数据的归属信息,除了table和 region名字外,同时还包括sequence number和timestamp,timestamp是” 写入时间”,sequence number的起始值为0,或者是最近一次存入文件系 统sequence number。

HLog SequeceFile的Value是HBase的KeyValue对象,即对应HFile中的 KeyValue

Region

HBase自动把表水平划分成多个区域(region),每个region会保存一个表里面某段连续的数据;每个表一开始只有一个region,随着数据不断插 入表,region不断增大,当增大到一个阀值的时候,region就会等分会两个新的region(裂变);

当table中的行不断增多,就会有越来越多的region。这样一张完整的表被保存在多个Regionserver上。

Memstore 与 storefile

  1. 一个region由多个store组成,一个store对应一个CF(列簇)
  2. store包括位于内存中的memstore和位于磁盘的storefile写操作先写入 memstore,当memstore中的数据达到某个阈值,hregionserver会启动 flashcache进程写入storefile,每次写入形成单独的一个storefile
  3. 当storefile文件的数量增长到一定阈值后,系统会进行合并(minor、 major compaction),在合并过程中会进行版本合并和删除工作 (majar),形成更大的storefile。
  4. 当一个region所有storefile的大小和超过一定阈值后,会把当前的region 分割为两个,并由hmaster分配到相应的regionserver服务器,实现负载均衡。
  5. 客户端检索数据,先在memstore找,找不到再找storefile
  6. HRegion是HBase中分布式存储和负载均衡的最小单元。最小单元就表 示不同的HRegion可以分布在不同的HRegion server上。
  7. HRegion由一个或者多个Store组成,每个store保存一个columns family。
  8. 每个Strore又由一个memStore和0至多个StoreFile组成。

如图:StoreFile 以HFile格式保存在HDFS上。

简述Hbase系统在hadoop生态圈中的地位 hbase是构建在hadoop上的一种_HDFS_06

 

 

简述Hbase系统在hadoop生态圈中的地位 hbase是构建在hadoop上的一种_数据_07

 

 

 3.3难点理解

1、flush刷新在HDFS上呈现究竟是怎么刷新的呢??
    我们目前刚刚学习的时候,添加数据,都是一条一条的put进去,而我们在put的数据比较少(小于128M)的时候,我们put完去HDFS上并未查看到我们put的文件,这是因为数据还在内存中,也就是还在memStore中,所以要想在HDFS中查看到,我们必须手动刷新到磁盘中,这是将memStore的数据刷新到StoreFile中去,这样我们在HDFS中就可以查看到了。  

  2、为什么Hbase不可以使用像Mysql那样进行查询??
    首先,我们应该可以感受到,我们在插入的时候,每行数据,有多少列,列名叫什么完全是我们自己定义的,之所以不支持像MySql那样对列进行查询和操作,因为不确定列的个数和名称。

  3、数据最后存在HDFS上的,HDFS不支持删改,为什么Hbase就可以呢??
    这里有个思想误区,的确,数据是以HFile形式存在HDFS上的,而且HDFS的确是不支持删改的,但是为什么Hbase就支持呢?首先,这里的删除并不是真正意义上的对数据进行删除,而是对数据进行打上标记,我们再去查的时,就不会查到这个打过标记的数据,这个数据Hmaster会每隔1小时清理。修改是put两次,Hbase会取最新的数据,过期数据也是这个方式被清理。

 

4、预分region解决热点问题

表的数据量很小,小到只有一个region会产生,当不断的往表中put数据时会频繁的与region做交互会导致某一个regionserver压力过大。

rowkey设计的一个关键点是查询维度(在建表的时候根据具体的查询业务 设计rowkey 预拆分)在默认拆分的策略中,region的大小达到一定的阈值之后才会进行拆分,并且拆分的region在同一个regionserver中,只有达到负载均衡的时机时才会进行region重分配,并且开始如果又大量数据进行插入操作,那么并发就会集中在单个RS中,就应当预划分region的rowkey范围,在建表的时候就指定预定的region范围。

指定切割点的命令:create ’tablename‘,’columncluster‘,SPLITS => ['a','b','c','d'],指定四个切分点就会产生5个region