hive自定义函数

1 自定义函数

1.1 为什么需要自定义函数

hive的内置函数满足不了所有的业务需求hive提供很多的模块可以自定义功能,比如:自定义函数、serde、输入输出格式等。

1.2 常见自定义函数有哪些

  1. UDF:用户自定义函数,user defined function。一对一的输入输出。(最常用的)。
  2. UDTF:用户自定义表生成函数。user defined table-generate function.一对多的输入输出。lateral view explode
  3. UDAF:用户自定义聚合函数。user defined aggregate function。多对一的输入输出 count sum max。

2 自定义函数实现

2.1 UDF格式

先在工程下新建一个pom.xml,加入以下maven的依赖包 请查看code/pom.xml

定义UDF函数要注意下面几点:

  1. 继承org.apache.hadoop.hive.ql.exec.UDF
  2. 重写evaluate(),这个方法不是由接口定义的,因为它可接受的参数的个数,数据类型都是不确定的。Hive会检查UDF,看能否找到和函数调用相匹配的evaluate()方法

2.1.1 自定义函数第一个案例

public class FirstUDF extends UDF {
    public String evaluate(String str){
        String upper = null;
        //1、检查输入参数
        if (StringUtils.isEmpty(str)){
} else {
            upper = str.toUpperCase();
        }
return upper;
    }
//调试自定义函数
    public static void main(String[] args){
        System.out.println(new firstUDF().evaluate("jiajingwen"));
    }
}

2.2 函数加载方式

2.2.1 命令加载

这种加载只对本session有效

# 1、将编写的udf的jar包上传到服务器上,并且将jar包添加到hive的class path中
# 进入到hive客户端,执行下面命令
 add jar /hivedata/udf.jar
# 2、创建一个临时函数名,要跟上面hive在同一个session里面:
create temporary function toUP as 'com.qf.hive.FirstUDF';
​
3、检查函数是否创建成功
show functions;
​
4. 测试功能
select toUp('abcdef');
​
5. 删除函数 
drop temporary function if exists tolow;

2.2.2 启动参数加载

(也是在本session有效,临时函数)

1、将编写的udf的jar包上传到服务器上
2、创建配置文件
vi ./hive-init
add jar /hivedata/udf.jar;
create temporary function toup as 'com.qf.hive.FirstUDF';
# 3、启动hive的时候带上初始化文件:
 hive -i ./hive-init
 select toup('abcdef')

2.2.3 配置文件加载

通过配置文件方式这种只要用hive命令行启动都会加载函数

1、将编写的udf的jar包上传到服务器上
2、在hive的安装目录的bin目录下创建一个配置文件,文件名:.hiverc
vi ./bin/.hiverc
add jar /hivedata/udf.jar;
create temporary function toup as 'com.qf.hive.FirstUDF';
3、启动hive
hive

2.3 UDTF格式

UDTF是一对多的输入输出,实现UDTF需要完成下面步骤

  1. 继承org.apache.hadoop.hive.ql.udf.generic.GenericUDF
  2. 重写initlizer()、getdisplay()、evaluate()。

执行流程如下:

UDTF首先会调用initialize方法,此方法返回UDTF的返回行的信息(返回个数,类型)。

初始化完成后,会调用process方法,真正的处理过程在process函数中,在process中,每一次forward()调用产生一行;如果产生多列可以将多个列的值放在一个数组中,然后将该数组传入到forward()函数。

最后close()方法调用,对需要清理的方法进行清理。

2.3.1 需求:

把"k1:v1;k2:v2;k3:v3"类似的的字符串解析成每一行多行,每一行按照key:value格式输出

2.3.2 源码

自定义函数如下:

package com.qf.hive;
public class ParseMapUDTF extends GenericUDTF{
     @Override
     public void close() throws HiveException {
     }
@Override
     public StructObjectInspector initialize(ObjectInspector[] args)
             throws UDFArgumentException {
         if (args.length != 1) {
             throw new UDFArgumentLengthException(" 只能传入一个参数");
         }
ArrayList<String> fieldNameList = new ArrayList<String>();
         ArrayList<ObjectInspector> fieldOIs = new ArrayList<ObjectInspector>();
         fieldNameList.add("map");
         fieldOIs.add(PrimitiveObjectInspectorFactory.javaStringObjectInspector);
         fieldNameList.add("key");
         fieldOIs.add(PrimitiveObjectInspectorFactory.javaStringObjectInspector);
return ObjectInspectorFactory.getStandardStructObjectInspector(fieldNameList,fieldOIs);
     }
@Override
     public void process(Object[] args) throws HiveException {
         String input = args[].toString();
         String[] paramString = input.split(";");
         for(int i=; i<