目录

一.安装准备

二.安装配置

三.验证安装


介绍:

hive是基于Hadoop的一个数据仓库工具,用来进行数据提取、转化、加载,这是一种可以存储、查询和分析存储在Hadoop中的大规模数据的机制。hive数据仓库工具能将结构化的数据文件映射为一张数据库表,并提供SQL查询功能,能将SQL语句转变成MapReduce任务来执行。Hive的优点是学习成本低,可以通过类似SQL语句实现快速MapReduce统计,使MapReduce变得更加简单,而不必开发专门的MapReduce应用程序。hive十分适合对数据仓库进行统计分析。

一.安装准备

1.安装好MySQL和Hadoop

2.下载安装包

点击连接下载

Index of /hive

3.版本选择

hive依赖 hive依赖mysql吗_hive

我安装的是apache-hive-3.1.2-bin版本!

hive依赖 hive依赖mysql吗_hive_02

二.安装配置

1.上传安装包

用MobaXterm_Protable上传,MobaXterm_Protable是Windows和Linux之间的连接工具。

2.解压安装

tar -zvxf apache-hive-3.1.2-bin.tar.gz -C /training/

 /training/是我放软件的文件夹!

3.配置环境变量

vi ~/.bash_profile
#hive
export HIVE_HOME=/training/apache-hive-3.1.2-bin
export PATH=$PATH:$HIVE_HOME/bin

4.环境变量生效

source ~/.bash_profile

5.创建数据库

在MySQL下执行

#1.登录MySQL
mysql -u root -p
#2.输入密码

#3.创建数据库
create database metastore;

#4.退出mysql
exit;

6.创建hive-site.xml文件(在hive目录下的conf中)

vi hive-site.xml

在hive-site.xml中添加如下内容 

(配置参数改成自己的,比如:

hadoop01:主机名;

offdb:mysql用户名;

metastore:mysql数据库名;

Zj_123456:mysql密码;

/user/hive/warehouse:路径)

<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
    <property>
       <name>javax.jdo.option.ConnectionURL</name>
       <value>jdbc:mysql://hadoop01:3306/metastore?useSSL=false</value>
    </property>
    <property>
       <name>javax.jdo.option.ConnectionDriverName</name>
       <value>com.mysql.jdbc.Driver</value>
    </property>
    <property>
       <name>javax.jdo.option.ConnectionUserName</name>
       <value>offdb</value>
    </property>
    <property>
       <name>javax.jdo.option.ConnectionPassword</name>
       <value>Zj_123456</value>
    </property>
    <property>
        <name>hive.metastore.warehouse.dir</name>
        <value>/user/hive/warehouse</value>
    </property>

    <property>
        <name>hive.metastore.schema.verification</name>
        <value>false</value>
    </property>

    <property>
    <name>hive.server2.thrift.port</name>
    <value>10000</value>
    </property>

    <property>
        <name>hive.server2.thrift.bind.host</name>
        <value>hadoop01</value>
    </property>
    <property>
        <name>hive.metastore.event.db.notification.api.auth</name>
        <value>false</value>
    </property>

    <property>
        <name>hive.cli.print.header</name>
        <value>true</value>
    </property>

    <property>
        <name>hive.cli.print.current.db</name>
        <value>true</value>
    </property>
</configuration>

7.上传MySQL的驱动包到hive的lib目录下

cp mysql-connector-java-5.1.44-bin.jar /training/apache-hive-3.1.2-bin/lib/

 MySQL的驱动包要是5.1.34以上版本的!

hive依赖 hive依赖mysql吗_hive_03

8.解决Jar包冲突,进入hive的/lib目录

#日志jar包
mv log4j-slf4j-impl-2.10.0.jar log4j-slf4j-impl-2.10.0.jar.bak

#查看Hadoop的guava-*.jar和hive的guava-*.jar
#(目录:hadoop-3.1.3/share/hadoop/common/lib)
#(目录:apache-hive-3.1.2-bin/lib)
#如果两个jar包不同,把低版本的jar包替换成高版本的jar包
#我的Hadoop的要高于hive的,所以执行替换
cp /training/hadoop-3.1.3/share/hadoop/common/lib/guava-27.0-jre.jar /training/apache-hive-3.1.2-bin/lib/

#把hive原来的guava-19.0.jar删除了
rm -rf guava-19.0.jar

9.初始化

schematool -dbType mysql -initSchema -verbose

三.验证安装

1.开启Hadoop

start-all.sh

2.输入hive

hive依赖 hive依赖mysql吗_jar_04

查看数据库

hive (default)> show databases;

显示:

OK

database_name

default

安装成功!!!!!