IT~技术交流群
添加微信号:liudd666haha
备注进群,会拉进交流群
互帮互助,IT之路不孤独!
本篇来源: https://liudongdong.top/archives/hiveba-hive-zhi-shu-ju-dao-chu
[toc]
一、insert导出
加载数据到本地
hive (default)> insert overwrite local directory '/opt/module/hive/insert_test01'
> row format delimited fields terminated by '\t'
> select id, name from student;加载数据到hdfs上(没有local)
hive (default)> insert overwrite directory '/hive/insert_test01'
> row format delimited fields terminated by '\t'
> select id, name from student;
二、Hadoop命令导出到本地
hive (default)> dfs -get /user/hive/warehouse/student/student.txt
/opt/module/data/export/student3.txt;
三、Hive Shell 命令导出
基本语法:(hive -f/-e 执行语句或者脚本 > file)
[liudd@hadoop102 hive]$ bin/hive -e 'select * from default.student;' >
/opt/module/hive/data/export/student4.txt;
四、Export 导出到 HDFS 上
export 和 import 主要用于两个 Hadoop 平台集群之间 Hive 表迁移。
hive (default)> export table student to '/hive/export01';
OK
Time taken: 0.258 seconds
五、Sqoop 导出
六、清除表中数据(Truncate)
hive (default)> truncate table student;
注意:Truncate 只能删除管理表,不能删除外部表中数据