一、安装hive

1、下载和Hadoop匹配的hive稳定版本  官网:http://hive.apache.org/downloads.html (看和你安装的Hadoop版本相对应)

2、安装hive安装包

linux进入hive命令行 linux启动hive命令_hive

 

 

 

3、配置环境变量

命令:vim ~/.bashrc 添加下面的环境变量

linux进入hive命令行 linux启动hive命令_mysql_02

 

 

二、安装mysql

(1)yum install方式自动化安装

linux进入hive命令行 linux启动hive命令_hive_03

 

 

 

 

安装镜像

 

linux进入hive命令行 linux启动hive命令_Hadoop_04

 

 

 更新软件

linux进入hive命令行 linux启动hive命令_linux进入hive命令行_05

 

 

安装MySQL服务

 

linux进入hive命令行 linux启动hive命令_Linux_06

 

 

 

linux进入hive命令行 linux启动hive命令_Hadoop_07

 

 

 

(2)启动MySQL服务

查看mysql是否启动成功,mysql节点处于LISTEN状态表示启动成功:

linux进入hive命令行 linux启动hive命令_linux进入hive命令行_08

 

linux进入hive命令行 linux启动hive命令_linux进入hive命令行_09

查看mysql版本显示版本号也表示启动成功 

linux进入hive命令行 linux启动hive命令_Linux_10

(3)进入mysql shell界面

默认的root用户密码很复杂,可以通过以下命令查看:

linux进入hive命令行 linux启动hive命令_Hadoop_11

(4)新建Hive常用数据库

注意:MySQL中每个命令后都要以英文分号;结尾。

创建数据库实例hiveDB

命令:mysql> create database hiveDB; 

linux进入hive命令行 linux启动hive命令_mysql_12

 

(5)配置mysql允许hive接入

创建数据库远程%用户hive,密码为xxxx

linux进入hive命令行 linux启动hive命令_mysql_13

 

授权远程用户hive拥有数据库实例hiveDB的所有权限 

最后刷新系统权限表 

linux进入hive命令行 linux启动hive命令_hive_14

 

(6)配置Hive的MySQL驱动

下载mysql的jdbc驱动文件:https://dev.mysql.com/downloads/connector/j/ 

把mysql-connector-java-5.1.32.jar文件复制到安装hive的lib目录下(hive的classpath环

境变量所指示的路径中,可用图形界面操作,也可使用linux的cp命令操作。

三、Hive的配置

(1)配置hive-site.xml       hive-site.xml为用户自定义配置,hive-default.xml为全局配置; 


linux进入hive命令行 linux启动hive命令_Hadoop_15

在conf下打开一个新的hive-site.xml文件插入内容如下(注:主机IP因虚拟机的IP而定,端口号为配置Hadoop时的端口号)

复制出来需要配置的信息并进行修改

<!--执行Hive操作访问HDFS时用于存储临时数据的目录,默认为/tmp/目录,通常设置
为/tmp/hive/,目录权限设置为733-->
<configuration>
<property>
<name>hive.exec.scratchdir</name>
<value>/tmp/hive</value>
</property>
<!--执行Hive数据仓库操作的数据存储目录,设置为HDFS存储路径
hdfs://master_hostname:port/usr/hive/warehouse,即自己配置hadoop/core-
site.xml的fs.defaultFS参数位置,其中master_hostname可以是主节点主机名
Hadoop01,也可以是主节点IP地址;port是端口号-->
<property>
<name>hive.metastore.warehouse.dir</name>
<value>hdfs://192.168.28.95:8020/user/hive/warehouse</value>
</property><!--设置Hive通过JDBC模式连接MySQL数据库metastore内容,端口改为你自己的端口,
这个hiveDB数据库与在mysql数据库创建的hiveDB数据库对应,用来保存hive元数据-->
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://192.168.28.95:3306/hiveDB?
createDatabaseIfNotExist=true</value>
</property>
<!--设置Hive连接MySQL的驱动名称,最新版本连接MySQL的jar包 所有写
com.mysql.cj.jdbc.Driver,如果是旧版本用com.mysql.jdbc.Driver-->
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<!--Hive连接存储metastore内容的数据库的用户名,填自己的用户-->
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>hive</value>
</property>
<!--Hive连接存储metastore内容的数据库的密码,填自己的密码-->
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>123456</value>
</property>
<!--是否允许Hive与MySQL之间存在多条连接-->
<property>
<name>javax.jdo.option.Multithreaded</name>
<value>true</value>
</property>
</configuration>

linux进入hive命令行 linux启动hive命令_mysql_16

 

 

 

(2)配置hive-env.sh

给hive-env.sh.template改名为hive-env.sh 命令:mv hive-env.sh.template hive-env.sh

找到hadoop的安装路径,hive的conf路径,jar包的存放路径

linux进入hive命令行 linux启动hive命令_Linux_17

 

要想启动hive需要先启动hdfs和hadoop

start-all.sh

jps(查看进程那些节点启动了)

hive