文章目录
- Hadoop 序列化
- 一、序列化概述
- 1、什么事序列化
- 2、为什么要序列化
- 3、为什么不用Java的序列化
- 二、自定义bean对象实现序列化接口
Hadoop 序列化
一、序列化概述
1、什么事序列化
序列化就是把内存中的对象,转换成字节序列
(或其它数据传输协议)以便于存储到磁盘(持久化)和网络传输
反序列化就是将收到字节序列(或其它数据传输协议)或者是磁盘的持久化数据,转换成内存中的对象
2、为什么要序列化
一般来说,“活的“对象只生存在内存里,关机断电就没有了。而且”活的“对象只能由本地的进程使用,不能被发送到网络上的另外一台计算机。然而序列化可以存储”活的“对象,可以将”活的“对象发送到远程计算机
3、为什么不用Java的序列化
Java的序列化是一个重量级序列化框架(Seriaalizable),一个对象被序列化后,会附带很多额外的信息(各种校验信息,Header,继承体系等),不便于在网络中高效的传输,所以Hadoop自己开发了一套序列化机制(Writable)
Hadoop 序列化特点:
- 紧凑:高效使用存储空间
- 快速:读写数据的额外开销小
- 可扩展:随着通信协议的升级而可升级
- 互操作:支持多语言的交互
二、自定义bean对象实现序列化接口
在企业开发中往往常用的基本序列化类型不能满足所有需求,比如在Hadoop框架内部传递一个bean对象,那么该对象就需要实现序列化接口
具体实现bean对象序列化步骤如下7步:
前面六步实现了就能实现序列化了
- 必须实现Writable接口
- 反序列化时,需要反射调用空参构造函数,所以必须有空参构造
空参构造在序列化的时候需要反射有用,它是系统调用的,默认给它一个就行了,这是固定的格式
public FlowBean(){
super();
}
- 重写序列化方法
@Override
public void write(DataOutput out) throws IOException{
out.writeLong(upFlow);
out.writeLong(downFlow);
out.writeLong(sumFlow);
}
- 重写反序列化方法
@Override
public void readFileds(Datainput in) throws IOException{
upFlow = in.readLong();
downFlow = in.readLong();
sumFlow = in.readLong();
}
- 注意反序列化的顺序和序列化的顺序完全一致
- 要想把结果显示在文件中,需要重写toString(),可以用"\t"分开,方便后续用
- 如果需要将
自定义的bean放在key中传输
,则还需要实现Comparabe接口
,因为MapReduce框中的Shuffle过程要求对key必须能排序
,详情见后面的排序案例