Hive体系结构:

是建立在hadoop之上的数据仓库基础架构.

和数据库相似,只不过数据库侧重于一些事务性的一些操作,比如修改,删除,查询,在数据库这块发生的比较多.数据仓库主要侧重于查询.对于相同的数据量在数据库中查询就比较慢一些,在数据仓库中查询的效率就比较快.

数据仓库是面向于查询的,并且处理的数据量要远远高于数据库处理的数据量.

传统的数据仓库产品,依然有数据存储的瓶颈,那么在这个瓶颈下查询的速度慢了,那么就不适用了,我们的hadoop是处理海量数据的,所以我们可以在上面建立数据仓库.

Hive和MapReduce的区别,最简单的一个区别就是MapReduce是使用Java写的,平时开发的过程中,需要用java语言进行书写,对于很多人是有瓶颈的.

hive封装在Hadoop之上的,可以使用SQL进行查询的一个框架.

Hive中的数据是从其他数据库产品中导入进来的,所以他要从其他数据库中把数据提取出来,然后转化过来,因为我们的数据库有很多,并且业务很分散,但是我们的数据仓库一般都是面向某个领域某个主题的,这个时候我们数据仓库中的一张表要融合很多数据库中的多张表,多张表在进入数据仓库的时候也需要进行转化.将转化之后的数据加载到数据仓库中.

在数据仓库中经常做的一个事就是ETL(extract transform load)的过程.hive的查询语言非常类似于SQL,但是又有自身的特色,称为HiveQL(HQL).

Hive数据转化的过程可以使用Hive自身的,可以MapReduce,也可以使用其他的一些东西.通常是使用MapReduce.

Hive查询的数据位于HDFS中.

HiveQL的查询在执行时转化为MapReduce,透过MapReduce去执行HDFS.对Hive的优化看生成MapReduce运行的效率如何.

hive和hdfs对应关系:

Hive中的数据库,表对应HDFS中的文件夹.

Hive表中的列对应HDFS中的文件夹中的数据文件中的数据的不同字段.

Hive表中的数据对应于HDFS中的文件夹中的数据文件中的数据.

Hive与HDFS的对应关系是存放在Hive的一个组件metastore中的.

metastore表现为关系数据库,可以是derby,也可以是mysql.也就是说我们的关系是存放在derty或者是mysql中的表里面的.

Hive和Hadoop结合在一起,需要有一个映射的关系,这个映射的关系就是metastore,sql语句的执行在这里边要转换为对表的操作,对文件夹的操作,对文件的操作,以及对数据的列的操作是通过查询metastore来实现的.

HDFS中存储的文件,数据类型都是字节数组,本身是不区分类型的,但是在hql语句中是需要区分类型的,还有类型的对应.

Hive安装:

hive相当于客户端,hadoop相当于服务端,所以我们的hive要配置hadoop的某一台机器上.

cd /usr/local

解压缩:tar-zxvf hive-0.9.0.tar.gz

重命名:mv hive-0.9.0.tar.gz hive

进入hive配置目录:cd hive/conf

mv hive-exec-log4j.properties.templater hive-exec-log4j.properties

mv hive-log4j.properties.templater hive-log4j.properties

mv hive-env.sh.template hive-env.sh

mv hive-default.xml.template hive-default.xml

cp hive-default.xml hive-site.xml

删除hive-site内部所有内容

修改bin目录下的hive-config.sh,增加以下三行

export JAVA_HOME=/usr/local/jdk

export HIVE_HOME=/usr/local/hive

export HADOOP_HOME=/usr/local/hadoop

hive的使用:

cd bin/执行hive

显示数据库:show databases;

进入数据库:usedefault;

显示数据库中的表:show tables;

创建表:create table t1(idint);

查询内容:select* from t1;

hive的映射关系:

Hive中的数据库,表对应HDFS中的文件夹.

Hive表中的列对应HDFS中的文件夹中的数据文件中的数据的不同字段.

Hive表中的数据对应于HDFS中的文件夹中的数据文件中的数据.

当hive部署成功后,hive默认的数据库default在hdfs上对应的目录是/usr/hive/warehouse

修改hive的metastore为mysql

centos上安装mysql

yum install mysql-server

启动mysql service mysqld start

启动mysql mysqld_safe&访问mysql mysql-uroot

进入mysql数据库 use mysql;

查询用户user的密码 select password ,user from user;

修改用户密码 update user set password=password('admin');

修改mysql为允许远程连接 grant all on*.* to 'root'@'%' identified by 'admin';

刷新 flush privileges; 之前的操作在当前回话中立即生效

退出登录 mysql-uroot -padmin

将mysql的jdbc驱动放到hive的lib目录中,

cp mysql-connector-java-5.1.10 /usr/local/hive/lib

修改hive/conf/hive-site.xml

javax.jdo.option.ConnectionURL

jdbc:mysql://hadoop4:3306/hive_hadoop?createDatabaseIfNotExist=true

javax.jdo.option.ConnectionDriverName

com.mysql.jdbc.Driver

javax.jdo.option.ConnectionUserName

root

javax.jdo.option.ConnectionPassword

admin

删除hive/bin/下面的metastore_db,derby.log

操作:

hive

usedefault;

show tables;

create table t1(idint);

quit;

mysql-uroot -padmin

show databases;

use hive_hadoop;

shwo tables;

DBS:hive上的数据库

TBLS:表的信息

COLUMNS_V2:列的信息

select *from dbs;

select*from tbls \g;

select* from columns_v2;

加载linux磁盘文件到hive表中:对hive的操作实际上是对hdfs的操作,对hdfs的操作只允许一次写入不允许修改的,load的数据来自于磁盘文件.

mysql和hadoop mysql和hadoop区别_hive

mysql和hadoop mysql和hadoop区别_Hive_02

vi onecolumn1

2

3

4

5

vi onecolumn 数据

将hive配置到环境变量中:

mysql和hadoop mysql和hadoop区别_hive

mysql和hadoop mysql和hadoop区别_Hive_02

vi ~/.bashrc

export PATH=/usr/local/hive/bin:$PATH

source~/.bashrc

hive

load data local inpath'./onecolumn'into table t1;

select*from t1;查询

drop table t1;删除表 hive中没有修改

将hive添加到环境变量中

多列数据的上传:

create table t2(id int,name string) row format delimited fields terminated by '\t';

vi user1zhangsan2lisi3wangwu

load data local inpath'./user' into table 't2';

select*from t2;

select name from t2;

当需要查询某一列的时候,hive就不能够进行全表扫描了,只能走mapreduce

创建表:

create table t1(id int);

create table t2(idint,name string) row format delimited fields terminated by '\t';

加载linux磁盘文件到hive的表中:

load data local inpath './onecolumn'into table t1;

load data local inpath'./user' into table t2;