UDF,UDAF,UDTF三个函数是Hive中常用的自定义函数,这些函数可以实现复杂的功能,且可以重复使用。
这篇文档,我们了解一下UDF,UDAF,UDTF三个函数编写和使用学习
UDF(User-Defined Functions)
功能特点:
输入一条数据,输出一条数据;是一个一对一的关系,属于单纯处理操作。
用途说明:
UDF函数可以直接应用于hive中的select语句,对查询结果做格式化或者各种处理后,再输出内容。
开发相关:
1.自定义UDF需要继承 org.apache.hadoop.hive.ql.exec.UDF;
2.一个UDF必须实现evaluate()方法(evaluate函数支持重载),但是该方法并不存在于UDF中。evaluate的参数个数以及类型都是用户按需定义。在使用的时候,Hive会调用UDF的evaluate()方法。
使用介绍:
第一步:继承UDF,实现特定的方法(evaluate)。
第二步:将写好的类打包为jar。如hive_process.jar.
第三步:进入到Hive外壳环境中,利用add jar /home/tmp/hadoop/hive_process.jar.注册添加该jar文件
第四步:创建函数的别名,create temporary function tmplength as ‘com.test.StringLength’;注意:这里注意“create temporary function”是函数临时会话创建的,会话关闭则消失。
第五步:在select中使用tmplength();
示例代码:
package test;
import org.apache.commons.lang.StringUtils;
import org.apache.hadoop.hive.ql.exec.UDF;
import org.apache.hadoop.io.Text;
//必须继承UDF
public class StringLength extends UDF{
//自定义实现evalution方法
public Integer evaluate(String str)
{
if(str==null)
return null;
return str.length();
}
//参数由自己设定
public Integer evaluate(String str,String stripChars)
{
if(str==null)
return null;
String tmp = StringUtils.strip(str.toString(),stripChars));
return tmp.length();
}
}
UDAF(User-Defined Aggregation Functions)
功能特点:输入多条数据,输出一条数据;是一个多对一的关系,属于聚合处理操作。
<待续>
UDTF(User-Defined Table-Generating Functions)
功能特点:
输入一条数据,输出多条数据;是一个一对多的关系,属于拆分处理操作。
开发相关:
1.继承org.apache.hadoop.hive.ql.udf.generic.GenericUDTF,
2.实现initialize, process, close三个方法(支持重载)。
3.UDTF首先会调用initialize方法,此方法返回UDTF的返回行的信息(返回个数,类型)。初始化完成后,会调用process方法,真正的处理过程在process函数中,在process中,每一次forward()调用产生一行;如果产生多列可以将多个列的值放在一个数组中,然后将该数组传入到forward()函数。
使用介绍:
第一步:将写好的类打包为jar。如hive_process.jar.
第二步:进入到Hive外壳环境中,利用add jar /home/tmp/hadoop/hive_process.jar.注册添加该jar文件
第三步:创建函数的别名,create temporary function tmpSplit as ‘com.test.ExplodeMap’;注意:这里注意“create temporary function”是函数临时会话创建的,会话关闭则消失。
第四步:在select中使用tmpSplit();或tmpSplit()在lateral view中使用。
代码示例:
下面是一个网上找的用来切分”key:value;key:value;”这种字符串,返回结果为key, value两个字段。供参考:
package test;
import java.util.ArrayList;
import org.apache.hadoop.hive.ql.udf.generic.GenericUDTF;
import org.apache.hadoop.hive.ql.exec.UDFArgumentException;
import org.apache.hadoop.hive.ql.exec.UDFArgumentLengthException;
import org.apache.hadoop.hive.ql.metadata.HiveException;
import org.apache.hadoop.hive.serde2.objectinspector.ObjectInspector;
import org.apache.hadoop.hive.serde2.objectinspector.ObjectInspectorFactory;
import org.apache.hadoop.hive.serde2.objectinspector.StructObjectInspector;
import org.apache.hadoop.hive.serde2.objectinspector.primitive.PrimitiveObjectInspectorFactory;
public class ExplodeMap extends GenericUDTF{
@Override
public void close() throws HiveException {
// TODO Auto-generated method stub
}
@Override
public StructObjectInspector initialize(ObjectInspector[] args)
throws UDFArgumentException {
if (args.length != 1) {
throw new UDFArgumentLengthException("ExplodeMap takes only one argument");
}
if (args[0].getCategory() != ObjectInspector.Category.PRIMITIVE) {
throw new UDFArgumentException("ExplodeMap takes string as a parameter");
}
ArrayList<String> fieldNames = new ArrayList<String>();
ArrayList<ObjectInspector> fieldOIs = new ArrayList<ObjectInspector>();
fieldNames.add("col1");
fieldOIs.add(PrimitiveObjectInspectorFactory.javaStringObjectInspector);
fieldNames.add("col2");
fieldOIs.add(PrimitiveObjectInspectorFactory.javaStringObjectInspector);
return ObjectInspectorFactory.getStandardStructObjectInspector(fieldNames,fieldOIs);
}
@Override
public void process(Object[] args) throws HiveException {
String input = args[0].toString();
String[] test = input.split(";");
for(int i=0; i<test.length; i++) {
try {
String[] result = test[i].split(":");
forward(result);
} catch (Exception e) {
continue;
}
}
}
}
使用示例:
1.select explode_map(properties) as (col1,col2) from src;
2.select src.id, tmpTable.col1, tmpTable.col2 from src lateral view explode_map(properties) tmpTable as col1, col2;