一、进入hive之前的操作
1、简介
进入hive客户端之前的操作
hive [-hiveconf x=y]* [<-i filename>]* [<-f filename>|<-e query-string>]
2、设置参数相关的
(1)-hiveconf
-hiveconf ===set key=value
hive -hiveconf hive.exec.mode.local.auto=true
在进入客户端之前先设置参数再启动hive
(2)-i(init)
如果一次性需要设置多个参数,可以将多个参数的设置写入一个文件中(一行一个参数设置)。在启动hive客户端之前,设置一系列参数。
3、执行sql相关的
(1)-f
hive -f 脚本文件路径
===source的
A、启动hive客户端
B、source ...
C、退出客户端
(2)-e
hive -e "show databases"
A、启动hive客户端
B、执行sql语句
C、退出客户端
二、进入hive客户端之后的操作
1、quit 退出客户端
2、set key=value 设置参数对应的值的
set hive.cli.print.header=true;
只对当前客户端生效,一旦退出就失效了
3、set key; 查询对应参数的值的
set hive.cli.print.header;
4、set -v
查看hive中所有参数信息,了解即可
5、add FILE [file] 添加脚本文件到hive的classpath下
6、add jar path 添加jar文件的classpath下的
7、list FILE 查看hive的class path下有哪些文件的
8、list jars
9、! [cmd] 在hive的客户端执行linux命令
!ls
!pwd
10、dfs [dfs cmd] 在hive客户端,执行hadoop的命令的
hadoop hdfs 操作命令:
hadoop fs -...
hdfs dfs -...
hadoop |hdfs 启动hadoop的客户端的,因为hive相当于hadoop的一个客户端,所以在执行hadoop命令的时候,不用写hadoop | hdfs。
dfs -ls|-mkdir ...
11、source 脚本文件路径 加载sql脚本的
sql脚本
一系列的sql语句
很多sql语句一起执行,写在一个脚本中。
source /home/hadoop/tmpdata/hive.sql;