1.序列化

     所谓的序列化,就是将结构化对象转化为字节流,以便在网络上传输或是写道磁盘进行永久存储。

     反序列化,就是将字节流转化为结构化对象。

hadoop序列化_hadoop     

序列化在分布式数据处理的两大领域经常出现:进程间通信和永久存储。

     在Hadoop中,系统中多个节点上进程间的通信是通过“远程过程调用”(remote procedure call, RPC)实现的。RPC将消息序列化成二进制流后发送到远程节点,远程节点接着将二进制流饭序列化为原始消息。通常情况下,RPC序列化格式许紧凑、快速、可扩展、和胡操作!紧凑的格式能够使我们充分利用数据中心中最稀缺的资源——网络带宽。

 

hadoop序列化_hadoop_02

     在Hadoop中,它使用自己的序列化框架Writable。

2.hadoop序列化框架

Writable接口也就是org.apache.hadoop.io。

Writable接口定义了两个方法,一个是将其状态写如到DataOutput二进制流的write方法,另一个是从DataInput中读取结构化对象的readFields方法。

Hadoop的所有可序列化对象都必须实现这个接口。 Java的API提供了Comparable接口,也就是java.lang.Comparable接口。这个接口只有一个方法,就是compareTo,用于比较两个对象。
WritableComparable接口同时继承了Writable和Comparable这两个接口。

hadoop序列化_二进制流_03

WritableComparable接口:继承自Writable接口 和 Comparable<T>接口;即有序列功能,也有比较排序功能;

hadoop序列化_java_04

hadoop序列化_二进制流_05

 

RawComparator接口,该接口允许实现比较数据流中的记录,而不用把数据流反序列化为对象,从而避免了新建对象的额外开销;( 可实现Hadoop自定义比较排序接口连接)

hadoop序列化_序列化_06

 

public interface RawComparable {
  /**
   * Get the underlying byte array.
   * 
   * @return The underlying byte array.
   */
  abstract byte[] buffer();

  /**
   * Get the offset of the first byte in the byte array.
   * 
   * @return The offset of the first byte in the byte array.
   */
  abstract int offset();

  /**
   * Get the size of the byte range in the byte array.
   * 
   * @return The size of the byte range in the byte array.
   */
  abstract int size();
}

 hadoop序列化_hadoop_07

 

3.序列化框架实现子类介绍

 

Hadoop序列化类
    实现了WritableComparable接口的类
        基础类:BooleanWritable,ByteWritable,IntWritable,VIntWritable,
FIntWritable,LongWritbale,VLongWritavle,DoubleWritable
        高级类:NullWritable,Text,BytesWritable,MDSHash,ObjectWritable,
GenericWritable

    仅实现了Writable接口的类:
        数组:AbstractWritable,TwoDArrayWritable
        映射:AbstractMapWritable,MapWritable,SortedMapWritable
我们主要介绍如绿色的几个:
LongWritable

 

 hadoop序列化_二进制流_08

Text

hadoop序列化_hadoop_09

 

 

IntWritbale

hadoop序列化_结构化_10

 

NullWritable

hadoop序列化_二进制流_11

 

大多数人都以为是才智成就了科学家,他们错了,是品格。---爱因斯坦