Hadoop
简介
- Hadoop是一个开源框架来存储和处理大型数据在分布式环境中。包含两个模块,一个是MapReduce,另一个是Hadoop分布式文件系统(HDFS)。
- MapReduce:是一种并行编程模型,在大型集群普通硬件可用于处理大型结构化,半结构化和非结构化数据。
- HDFS:Hadoop分布式文件系统是Hadoop框架的一部分,用于存储和处理数据集。提供了一个容错文件系统在普通硬件上运行。
- Hadoop生态系统包含了用于协助Hadoop的不同的子项目模块,如Sqoop,Pig和Hive。
- Sqoop:用来在HDFS和RDBMS之间来回导入和导出数据。
- Pig:用于开发MapReduce操作的脚本程序语言的平台。
- Hive:用于开发SQL类型脚本,用于做MapReduce操作的平台。
- 有多重方法来执行MapReduce作业:
- 传统的方法是使用Java MapReduce程序结构化,半结构化和非结构化数据。
- 针对MapReduce的脚本的方式,使用Pig来处理结构化和半结构化数据。
- Hive查询语言(HiveQL或HQL)采用Hive为MapReduce的处理结构化数据。
Hive简介
- Hive是一个数据仓库基础工具在Hadoop中用来处理结构化数据。它架构在Hadoop之上,总归为大数据,并使得查询和分析方便。
- Hive特点
- 它存储架构在一个数据库中并处理数据到HDFS;
- 专为OLAP设计;
- 提供SQL类型语言查询叫HiveQL或HQL;
- 是熟知,快速,可扩展的。
Hive架构
架构图
架构中的每个单元
- 用户接口/界面:Hive是一个数据仓库基础工具软件,可以创建用户和HDFS之间的互动。用户界面,Hive支持Hive的Web UI,Hive命令行,HiveHD洞察(?)。
- 元存储(Meta Store):Hive选择各自的数据库服务器,用以存储表、数据库、列模式或元数据表,他们的数据类型和HDFS映射。
- HiveQL处理引擎(Hive QL Process Engine):HiveQL类似于SQL的查询上Metastore模式信息。这是传统的方式进行MapReduce程序的替代品之一。相反,使用Java编写的MapReduce程序,可以编写为MapReduce工作,并处理它的查询。
- 执行引擎(Execution Engine):HiveQL处理引擎和MapReduce的结合部分是Hive执行引擎。执行引擎处理查询并产生结果和MapReduce的结果一样,采用MapReduce方法。
- HDFS或HBASE:Hadoop的分布式文件系统或者HBASE数据存储技术是用于将数据存储到文件系统。
Hive工作原理
Hive和Hadoop之间的工作流程
Hive与Hadoop框架的交互方式
1、Execute Query:Hive接口,如命令行或Web UI发送传驱动程序(如JDBC,ODBC等数据库驱动程序)来执行;
2、Get Plan:在驱动程序帮助下查询编译器,分析查询检查语法和查询计划或查询的要求;
3、Get Metadata:编译器发送元数据请求到Metastore;
4、Send Metadata:Metastore发送元数据,以编译器的响应;
5、Send Plan:编译器检查要求,并重新发送计划到驱动程序。到此为止,查询解析和编译完成;
6、Execute Plan:驱动程序发送的执行计划到执行引擎;
7、Execute Job:在内部,执行作业的过程是一个MapReduce工作。执行引擎发送作业给JobTracker,在名称节点并把它分配作业到TaskTracker,这是在数据节点。在这里,查询执行MapReduce工作;
7.1、Metadata Ops:在执行时,执行引擎可以通过Metastore执行元数据操作;
8、Fetch Result:执行引擎接受来自数据节点的结果;
9、Send Results:执行引擎发送这些结果值给驱动程序;
10、Send Resulks:驱动程序将结果发送给Hive接口。