IT~技术交流群

添加微信号:liudd666haha

备注进群,会拉进交流群

互帮互助,IT之路不孤独!


本篇来源:​  https://liudongdong.top/archives/hiveba-hive-zhi-shu-ju-dao-chu​

本系列来源:​  https://liudongdong.top/categories/hive​

[toc]

一、insert导出

  1. 加载数据到本地

    hive (default)> insert overwrite local directory '/opt/module/hive/insert_test01'
    > row format delimited fields terminated by '\t'
    > select id, name from student;

    #yyds干货盘点# Hive | 八、hive之数据导出_hadoop

  2. 加载数据到hdfs上(没有local)

    hive (default)> insert overwrite  directory '/hive/insert_test01'
    > row format delimited fields terminated by '\t'
    > select id, name from student;

#yyds干货盘点# Hive | 八、hive之数据导出_数据_02

二、Hadoop命令导出到本地

hive (default)> dfs -get /user/hive/warehouse/student/student.txt
/opt/module/data/export/student3.txt;

三、Hive Shell 命令导出

基本语法:(hive -f/-e 执行语句或者脚本 > file)

[liudd@hadoop102 hive]$ bin/hive -e 'select * from default.student;' >
/opt/module/hive/data/export/student4.txt;

四、Export 导出到 HDFS 上

export 和 import 主要用于两个 Hadoop 平台集群之间 Hive 表迁移。

hive (default)> export table student to '/hive/export01';
OK
Time taken: 0.258 seconds

#yyds干货盘点# Hive | 八、hive之数据导出_hive_03

五、Sqoop 导出

六、清除表中数据(Truncate)

hive (default)> truncate table student;

注意:Truncate 只能删除管理表,不能删除外部表中数据