最近小编的一位朋友小华学习了hiveSQL的一些常见场景及应用,也通过很多示例做了大量练习, 在心态上有一点小飘了,于是前两天去面试了一家大数据公司。

面试官一开始也是给面子,问了hiveSQL操作窗口函数的两道SQL题,小华都毫无疑问做出来了,心里正美着的时候,面试官来了hive的灵魂三问:hive是如何与hadoop结合的?hive的架构大致构成是?hive的运行流程是?于是傻眼的小华面试完之后来找到小编,希望小编能够说一下hive这方面的内容。

要说明白hive的整体工作流程,首先需要了解一下hive的架构设计?



hive 多进程 挂掉 hive有哪些进程_hive jdbc驱动

Hive架构设计包括三个部分

  1. Hive Clients,Hive客户端,它为不同类型的应用程序提供不同的驱动,使得Hive可以通过类似Java、Python等语言连接,同时也提供了JDBC和ODBC驱动。
  2. Hive Services,Hive服务端,客户端必须通过服务端与Hive交互,主要包括:
  3. 用户接口组件(CLI,HiveServer,HWI),它们分别以命令行、与web的形式连接Hive。
  4. Driver组件,该组件包含编译器、优化器和执行引擎,它的作用是将hiveSQL语句进行解析、编译优化、生成执行计划,然后调用底层MR计算框架。
  5. Metastore组件,元数据服务组件。Hive数据分为两个部分,一部分真实数据保存在HDFS中,另一部分是真实数据的元数据,一般保存在MySQL中,元数据保存了真实数据的很多信息,是对真实数据的描述。
  6. Hive Storage and Computing  ,包括元数据存储数据库和Hadoop集群。Hive元数据存储在RDBMS中,Hive数据存储在HDFS中,查询由MR完成。


  对Hive整体架构设计有一定了解之后,我们再来看看Hive实际的工作流程?

hive 多进程 挂掉 hive有哪些进程_Hive_02


接下来细化一下每个步骤。

hive 多进程 挂掉 hive有哪些进程_Hive_03


简而言之,Hive接到命令之后,首先会去元数据库获取元数据,然后把元数据信息和作业计划发送Hadoop集群执行任务,再将最终的结果返回。 熟悉了Hive的整个工作流程,相信下回再遇到Hive相关的面试,你也能对答如流了。赶紧再熟悉一下吧~ < E n d >