Hive在Hadoop集群下的安装
文章目录
- Hive在Hadoop集群下的安装
- 一、hive安装前必备步骤
- 二、安装Hive
- 三、配置Hive的环境变量
- 四、测试连接
一、hive安装前必备步骤
- Hadoop集群能正常运行
安装参考 - MySql安装
安装参考
需要增加以下步骤:
1)输入 :my -uroot -pok 启动数据库
2)输入:use mysql - 创建用户:
create user 'bigdata'@'hadoop120' IDENTIFIED BY 'ok';
4)创建数据库:
create database hive_metadata;
5)赋权:
再给创建的用户赋权的同时也要给root用户赋权
grant all privileges on *.* to 'bigdata'@'hadoop120';
grant all privileges on *.* to 'root'@'hadoop120';
6) 刷新权限:
flush privileges;
7)输入quit退出数据库
二、安装Hive
- 将hive安装包导入software文件夹下
- 解压到opt目录下
tar -zxf hive-1.1.0-cdh5.14.2.tar.gz -C /opt/
- 重命名为hive------可以改名
mv hive-1.1.0-cdh5.14.2/ hive
三、配置Hive的环境变量
- 输入vi /etc/profile 配置hive环境变量
export HIVE_PATH=/opt/hive
export PATH=$PATH:$HIVE_PATH/bin
- 输入 source /etc/profile 使得环境变量生效
- 进入hive安装目录,输入:
mv conf/hive-env.sh.template conf/hive-env.sh
然后 vi conf/hive-env.sh 进入配置文件
修改以下几个地方
以及需要新增jdk安装目录
# Set HADOOP_HOME to point to a specific hadoop install directory
# HADOOP_HOME=${bin}/../../hadoop
export HADOOP_HOME=/opt/hadoop
# Hive Configuration Directory can be controlled by:
# export HIVE_CONF_DIR=
export HIVE_CONF_DIR=/opt/hive/conf
# Folder containing extra ibraries required for hive compilation/execution can be controlled by:
# export HIVE_AUX_JARS_PATH=
export HIVE_AUX_JARS_PATH=/opt/hive/lib
export JAVA_HOME=/opt/jdk8/
保存退出!
ps:因为安装的时候改了目录名字,填写时需要根据实际目录名称填写
- 还需要配置一个hive-site.xml文件,可以新建一个
vi conf/hive-site.xml ------配置时没有默认创建
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>hive.cli.print.header</name>
<value>true</value>
<description>Whether to print the names of the columns in query output.</description>
</property>
<property>
<name>hive.cli.print.current.db</name>
<value>true</value>
<description>Whether to include the current database in the Hive prompt.</description>
</property>
<property>
<name>hive.metastore.warehouse.dir</name>
<value>hdfs://ip地址:9000/opt/hive/warehouse</value>
</property>
<property>
<name>hive.metastore.local</name>
<value>false</value>
</property>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://ip地址:3306/hive?createDatabaseIfNotExist=true</value>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>mysql用户</value>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>mysql数据库密码</value>
</property>
<property>
<name>hive.server2.authentication</name>
<value>NONE</value>
</property>
<property>
<name>hive.server2.thrift.client.user</name>
<value>root</value>
</property>
<property>
<name>hive.server2.thrift.client.password</name>
<value>root</value>
</property>
<property>
<name>hive.metastore.uris</name>
<value>thrift://ip地址:9083</value>
</property>
</configuration>
保存退出!
- 将mysql-connector-java-5.1.0-bin.jar文件拖入hive的lib目录下
- 给hive和warehouse文件赋权(在hive目录下)
ps:如果是远程的话查看网页确定文件夹存不存在,没有的话先在hdfs建文件夹
hadoop fs -mkdir -p /opt/hive/warehouse
然后赋权 hadoop fs -chmod -R 777 /opt/hive
chmod 777 hive
四、测试连接
- 启动hadoop
- 在hive目录下输入:-----初始化mysql数据库
schematool -initSchema -dbType mysql
结果如下:
- 输入: hive,进入hive命令行模式,效果如下:
- 输入: show tables; 结果如下----初始没有表
- 输入语句:create database abc;
展示数据库:show databases;
- 可到页面查看:
配置完成!