Hive安装的基础
- JDK安装完成
- Hadoop安装完成
- Mysql安装成功
Hive的安装
- 在官网下载Hive的安装包
进入官网
选择下载的镜像
选择下载的版本 - 将安装包拷贝至虚拟机下
- 解压安装包至/software并将文件夹名改为Hive
tar -zxvf apache-hive-2.3.6-bin.tar.gz -C /software
mv apache-hive-2.3.6-bin hive
4. 配置环境变量(路径/etc 文件名:profile)
#hive
export HIVE_HOME=/software/hive
export PATH=$PATH:$HIVE_HOME/bin
配置完成后使用命令source /etc/profile刷新文件
- 验证Hive是否安装成功
Hive的配置
路径:/software/hive/conf
- 配置hive-env.sh
将文件hive-env.sh.template改名为hive-env.sh,并在文件中配置hadoop以及hive相关的路径 - 配置hive-site.xml
创建文件hive-site.xml,并配置一下内容
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true</value>
<description>JDBC connect string for a JDBC metastore</description>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
<description>Driver class name for a JDBC metastore</description>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
<description>username to use against metastore database</description>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>123456</value>
<description>password to use against metastore database</description>
</property>
<property>
<name>hive.metastore.warehouse.dir</name>
<value>/user/hive/warehouse</value>
<description>location of default database for the warehouse</description>
</property>
<property>
<name>hive.cli.print.header</name>
<value>true</value>
</property>
<property>
<name>hive.cli.print.current.db</name>
<value>true</value>
</property>
<property>
<name>datanucleus.schema.autoCreateAll</name>
<value>true</value>
</property>
</configuration>
3. 下载mysql-connector-java-5.1.27,下载地址为https://downloads.mysql.com/archives/c-j/
将该文件解压,解压后文件夹中的mysql-connector-java-5.1.27-bin.jar拷贝至/software/hive/lib文件夹中
4. 启动Hadoop
sbin/start-all.sh
路径为安装Hadoop的路径,再检测Yarn和HDFS是否启动,命令为jps
- 在HDFS上创建/tmp和/user/hive/warehouse两个目录并修改他们的同组权限可写
bin/hadoop fs -mkdir /tmp
bin/hadoop fs -mkdir -p /user/hive/warehouse
bin/hadoop fs -chmod g+w /tmp
bin/hadoop fs -chmod g+w /user/hive/warehouse
在HDFS上查询
6. 初始化数据库
schematool -dbType mysql -initSchema
7. 启动hive,查询数据库
注:MySQL要授予远程登陆权限