一). Hive的安装与配置

1. 前置说明

实验平台直达链接

任务描述

在已安装Hadoop的基础上安装配置好Hive并运行。

相关知识

完成本次任务,需要掌握:

1.Hive的基本安装;

2.Mysql的安装与设置;

3.Hive的配置。

注意:本次实训Hive的安装与配置建立在Hadoop已安装配置好的情况下。

2. 基本配置

2.1 解压缩

cd /opt

tar -zxf apache-hive-3.1.0-bin.tar.gz

mv apache-hive-3.1.0-bin hive

hive安装与使用 hive的安装与配置实验报告_hive安装与使用

2.2 配环变

vim /etc/profile

export HIVE_HOME=/opt/hive
export PATH=$HIVE_HOME/bin:$PATH

hive安装与使用 hive的安装与配置实验报告_hadoop_02

解决包的冲突问题

rm /opt/hive/lib/log4j-slf4j-impl-2.10.0.jar

2.3 Mysql配置

sudo apt-get install mysql-server   #安装mysql服务

apt-get install mysql-client        #安装mysql客户端

sudo apt-get install libmysqlclient-dev  #安装相关依赖环境

hive安装与使用 hive的安装与配置实验报告_hadoop_03


hive安装与使用 hive的安装与配置实验报告_hadoop_04

2.3.1 Mysql驱动
tar -zxvf mysql-connector-java-5.1.45.tar.gz

cd mysql-connector-java-5.1.45

cp mysql-connector-java-5.1.45-bin.jar /opt/hive/lib/

hive安装与使用 hive的安装与配置实验报告_hadoop_05

2.3.2 设置Mysql

hive安装与使用 hive的安装与配置实验报告_hive安装与使用_06

3. Hive 配置

3.1 文件配置

hive-site.xml

hive-site.xml保存Hive运行时所需要的相关配置信息。

<configuration>
        <property>
         <name>hive.metastore.warehouse.dir</name>
         <value>/opt/hive/warehouse</value>
         </property>
         <property>
         <name>hive.exec.scratchdir</name>
         <value>/opt/hive/tmp</value>
         </property>
         <property>
         <name>hive.querylog.location</name>
         <value>/opt/hive/logs</value>
         </property>
         <property>
         <name>hive.server2.thrift.port</name>
         <value>10000</value>
         </property>
         <property>
         <name>hive.server2.thrift.bind.host</name>
         <value>localhost</value>
         </property>
         <property>
         <name>hive.server2.enable.doAs</name>
         <value>true</value>
         </property>
         <property>
         <name>hive.session.id</name>
         <value>false</value>
         </property>
         <property>
         <name>hive.session.silent</name>
         <value>false</value>
         </property>
         <property>
         <name>javax.jdo.option.ConnectionURL</name>
         <value>jdbc:mysql://localhost:3306/hiveDB?createDatabaseIfNotExist=true</value>
         </property>
         <property>
         <name>javax.jdo.option.ConnectionDriverName</name>
         <value>com.mysql.jdbc.Driver</value>
         </property>
         <property>
         <name>javax.jdo.option.ConnectionUserName</name>
         <value>bee</value>
         <!-- 这里是之前设置的数据库 -->
         </property>
         <property>
         <name>javax.jdo.option.ConnectionPassword</name>
         <!-- 这里是数据库密码 -->
         <value>123123</value>
         </property>
</configuration>
  • hive-env.sh

由于Hive是一个基于Hadoop分布式文件系统的数据仓库架构,主要运行在 Hadoop分布式环境下,因此,需要在文件hive-env.sh中指定Hadoop相关配置文件的路径,用于Hive访问HDFS(读取fs.defaultFS属性值)和 MapReduce(读取mapreduce.jobhistory.address属性值)等Hadoop相关组件。

如果目录下没有该文件,我们就以hive-env.sh.template为模板复制一个cp hive-env.sh.template hive-env.shvim hive-env.sh打开文件,在文件末尾添加变量指向 Hadoop 的安装路径

HADOOP_HOME=/usr/local/hadoop  #在本地环境安装,要根据自己hadoop的路径来确定

hive安装与使用 hive的安装与配置实验报告_big data_07

4. Hive 启动

4.1 启动hadoop

hive安装与使用 hive的安装与配置实验报告_hive_08

4.2 元数据写入

第一次启动Hive前还需要执行初始化命令

schematool -dbType mysql -initSchema

二). Hive Shell基础命令

1. 前置说明

任务描述

本关任务:按照编程要求,在Hive下创建表。

相关知识

Hive Shell运行在Hadoop集群环境上,是Hive提供的命令行接口(CLI),在Hive提示符输入HiveQL命令,Hive ShellHQL查询转换为一系列MapReduce作业对任务进行并行处理,然后返回处理结果。

为了完成本实验的任务,需要掌握:Hive Shell常用命令 。

Hive Shell 常用命令

注意:Hive命令必须以分号;结束。

2. 具体操作

2.1 交互式运行

Hive的安装与配置基础上

  • 启动 Hive Shell:hive
  • 查询数据库:show databases;
  • 查询表:show tables;

hive安装与使用 hive的安装与配置实验报告_hive_09

因为该数据库下没有创建表,所以输出结果为0行。

  • 创建数据库mydbcreate database mydb;
  • 删除数据库mydbdrop database mydb;
  • 创建表mytable,有id字段,数据类型为intcreate table mytable(id int);
  • 删除表mytabledrop table mytable;
  • 退出 Hive Shell:exit;

hive安装与使用 hive的安装与配置实验报告_hive安装与使用_10

2.2 非交互式运行

可以在不启动Hive Shell,直接在Linux的命令行操作Hive

  • hive -e 'show databases;'
  • hive -S -e 'show databases;'

hive安装与使用 hive的安装与配置实验报告_hadoop_11

Hive的交互式模式和非交互式模式下,执行HiveQL操作都会输出执行过程信息,如执行查询操作所用时间,通过指定-S选项可以禁止输出此类信息。

3. 测试任务

请根据左侧知识点的描述,在右侧命令行中使用 Hive 进行创表 ,具体任务如下:

Hive Shell下创建一个表student,表结构如下:

col_name

data_type

id

int

name

string

age

int

hive> create table student(id int,name string,age int);

Hive Shell下创建一个表student,表结构如下:

col_name

data_type

id

int

name

string

age

int

hive> create table student(id int,name string,age int);

hive安装与使用 hive的安装与配置实验报告_hadoop_12

申明:以上所有流程基于头歌实验平台提供的环境,如需实操点击直达链接跳转即可开启实验,文章仅作记录