Hive产生的背景

Hive的产生是基于mr计算框架的,简单的说就是mr学习过于复杂,成本过高,所以hive的初心是对mr做一层包装,让大家能利于sql的优势来处理数据。

直接使用MapReduce处理大数据,将面临以下问题:

1:MapReduce 开发难度大,学习成本高(wordCount => Hello World)

2:Hdfs文件没有字段名、没有数据类型,不方便进行数据的有效管理

3:使用MapReduce框架开发,项目周期长,成本高

Hive是基于Hadoop的一个数据仓库工具,可以将 结构化的数据文件 映射为一张表(类似于RDBMS中的表),并提供类SQL查询功能;Hive是由Facebook开源,用于解决海量结构化日志的数据统计。

Hive本质是:将 SQL 转换为 MapReduce 的任务进行运算

底层由HDFS来提供数据存储

可以将Hive理解为一个:将 SQL 转换为 MapReduce 任务的工具

如题:数仓是什么?

数据仓库(Data Warehouse)是一个面向主题的、集成的、相对稳定的、反映历史变化的数据集合,主要用于管理决策。(数据仓库之父比尔·恩门,1991年提出)。

1:数据仓库的目的:构建面向分析的、集成的数据集合;为企业提供决策支持

2:数据仓库本身不产生数据,数据来源于外部

3:存储了大量数据,对这些数据的分析和处理不可避免的用到Hive

Hive和RDBMS对比

由于 Hive 采用了类似SQL 的查询语言 HQL(Hive Query Language),因此很容易将Hive 理解为数据库。其实从结构上来看,Hive 和传统的关系数据库除了拥有类似的查询语言,再无类似之处。

查询语言相似:HQL <=> SQL 高度相似

由于SQL被广泛的应用在数据仓库中,因此,专门针对Hive的特性设计了类SQL的查询语言HQL。熟悉SQL开发的开发者可以很方便的使用Hive进行开发。


数据规模:Hive存储海量数据;RDBMS只能处理有限的数据集;

由于Hive建立在集群上并可以利用MapReduce进行并行计算,因此可以支持很大规模的数据;而RDBMS可以支持的数据规模较小。


执行引擎:Hive的引擎是MR/Tez/Spark/Flink;RDBMS使用自己的执行引擎 ,Hive中大多数查询的执行是通过 Hadoop 提供的 MapReduce 来实现的。而RDBMS 通常有自己的执行引擎。


数据存储:Hive保存在HDFS上;RDBMS保存在本地文件系统或裸设备,Hive 的数据都是存储在 HDFS 中的。而RDBMS是将数据保存在本地文件系统或裸设备中。


执行速度:Hive相对慢(MR/数据量);RDBMS相对快;Hive存储的数据量大,在查询数据的时候,通常没有索引,需要扫描整个表;加之Hive使用MapReduce作为执行引擎,这些因素都会导致较高的延迟。而RDBMS对数据的访问通常是基于索引的,执行延迟较低。当然这个低是有条件的,即数据规模较小,当数据规模大到超过数据库的处理能力的时候,Hive的并行计算显然能体现出并行的优 势


可扩展性:Hive支持水平扩展;通常RDBMS支持垂直扩展,对水平扩展不友好 Hive建立在Hadoop之上,其可扩展性与Hadoop的可扩展性是一致的(Hadoop集群 规模可以轻松超过1000个节点)。而RDBMS由于 ACID 语义的严格限制,行扩展非常 有限。目前最先进的并行数据库 Oracle 在理论上的扩展能力也只有100台左右。


数据更新:Hive对数据更新不友好;RDBMS支持频繁、快速数据更新 Hive是针对数据仓库应用设计的,数据仓库的内容是读多写少的。因此,Hive中不建议对数据进行改写操作,所有的数据都是在加载的时候确定好的。而RDBMS中的数据需要频 繁、快速的进行更新。

Hive的优缺点

Hive的优点

1:学习成本低。Hive提供了类似SQL的查询语言,开发人员能快速上手;

2:处理海量数据。底层执行的是MapReduce 任务;

3:系统可以水平扩展。底层基于Hadoop;

4:功能可以扩展。Hive允许用户自定义函数;

5:良好的容错性。某个节点发生故障,HQL仍然可以正常完成;

6:统一的元数据管理。元数据包括:有哪些表、表有什么字段、字段是什么类型;

Hive的缺点

1:HQL表达能力有限;

2:迭代计算无法表达;

3:Hive的执行效率不高(基于MR的执行引擎);

4:Hive自动生成的MapReduce作业,某些情况下不够智能;

5:Hive的调优困难;

Hive架构

用什么工具连hive 用什么工具进行hive开发_数据仓库

 

如上图:

用户接口 CLI(Common Line Interface):Hive的命令行,用于接收HQL,并返回结果;JDBC/ODBC:是指Hive的java实现,与传统数据库JDBC类似;WebUI:是指可通过浏览器访问Hive。

Thrift Server:Hive可选组件,是一个软件框架服务,允许客户端使用包括Java、C++、Ruby和其他很多种语言,通过编程的方式远程访问Hive;

元数据管理(MetaStore) Hive将元数据存储在关系数据库中(如mysql、derby)。Hive的元数据包括:数据库名、表名及类型、字段名称及数据类型、数据所在位置等;

解释器 (SQLParser) :使用第三方工具(antlr)将HQL字符串转换成抽象语法树(AST);对AST进行语法分析,比如字段是否存在、SQL语义是否有误、表是否存在;

编译器 (Compiler) :将抽象语法树编译生成逻辑执行计划;

优化器 (Optimizer) :对逻辑执行计划进行优化,减少不必要的列、使用分区等;

执行器 (Executr) :把逻辑执行计划转换成可以运行的物理计划;

Hive通过CLI,JDBC/ODBC或HWI接受相关的Hive SQL查询,并通过Driver组件进行编译,分析优化,最后编程可执行的MapReduce任务。

如上图大家不好理解,也可根据下图查看具体的执行逻辑:

用什么工具连hive 用什么工具进行hive开发_数据仓库_02

 

原创作者:Flying Young