Hadoop中hdfs文件存储可以使用textfile(文本格式),也可以使用压缩格式,压缩格式的文件有 zip, gzip,lzo,snappy,bzip2。
一般文件存储都会选择压缩文件,因为可以节省空间,选择压缩文件格式又要考虑三个方面,一是压缩比,压缩比越大,就越能节省空间,另一方面是压缩格式可以分割,可分割的目的是考虑mapreduce作业可以有效的利用map来读取数据,如果数据不可分割,map将无法从数据流的指定位置来读取文件,这样会导致mapreduce任务时间的延长。最后是要考虑解压的效率问题,解压效率高可以提高mapreduce作业的效率。lzo格式是目前来说最适合的压缩格式,支持分割,解压效率较高。
1 gzip压缩
优点:压缩率比较高,而且压缩/解压速度也比较快;hadoop本身支持,在应用中处理gzip格式的文件就和直接处理文本一样;有hadoop native库;大部分linux系统都自带gzip命令,使用方便。
缺点:不支持split。
应用场景:当每个文件压缩之后在130M以内的(1个块大小内),都可以考虑用gzip压缩格式。譬如说一天或者一个小时的日志压缩成一个gzip 文件,运行mapreduce程序的时候通过多个gzip文件达到并发。hive程序,streaming程序,和java写的mapreduce程序完 全和文本处理一样,压缩之后原来的程序不需要做任何修改。
2 lzo压缩
优点:压缩/解压速度也比较快,合理的压缩率;支持split,是hadoop中最流行的压缩格式;支持hadoop native库;可以在linux系统下安装lzop命令,使用方便。
缺点:压缩率比gzip要低一些;hadoop本身不支持,需要安装;在应用中对lzo格式的文件需要做一些特殊处理(为了支持split需要建索引,还需要指定inputformat为lzo格式)。
应用场景:一个很大的文本文件,压缩之后还大于200M以上的可以考虑,而且单个文件越大,lzo优点越越明显。
3 snappy压缩
优点:高速压缩速度和合理的压缩率;支持hadoop native库。
缺点:不支持split;压缩率比gzip要低;hadoop本身不支持,需要安装;linux系统下没有对应的命令。
应用场景:当mapreduce作业的map输出的数据比较大的时候,作为map到reduce的中间数据的压缩格式;或者作为一个mapreduce作业的输出和另外一个mapreduce作业的输入。
4 bzip2压缩
优点:支持split;具有很高的压缩率,比gzip压缩率都高;hadoop本身支持,但不支持native;在linux系统下自带bzip2命令,使用方便。
缺点:压缩/解压速度慢;不支持native。
应用场景:适合对速度要求不高,但需要较高的压缩率的时候,可以作为mapreduce作业的输出格式;或者输出之后的数据比较大,处理之后的数据 需要压缩存档减少磁盘空间并且以后数据用得比较少的情况;或者对单个很大的文本文件想压缩减少存储空间,同时又需要支持split,而且兼容之前的应用程 序(即应用程序不需要修改)的情况。
最后用一个表格比较上述4种压缩格式的特征(优缺点):
4种压缩格式的特征的比较
压缩比: bzip2>gzip>lzo
解压速度: lzo>gzip>bzip2
hive中的文件格式大致有一下几种:
TEXTFILE 默认格式
SEQUENCEFILE 通常用来将大量小文件合并,有压缩类型
MAPFILE 经过排序的SequenceFile
RCFILE hive
0.6
.
0
和以后的版本
ORC hive
0.11
.
0
和以后的版本
PARQUET hive
0.13
.
0
和以后的版本,该数据格式企业中最常用
AVRO hive
0.14
.
0
和以后的版本
结论
1.在压缩存储时间上,除Sequencefile外基本都相差无几。
2.数据压缩比例上ORC最优,相比textfile节省了50倍磁盘空间,parquet压缩性能也较好。
3.SQL查询速度而言,ORC与parquet性能较好,远超其余存储格式。
综合上述各种性能指标,建议工作中原始日志写入hive的存储格式都采用ORC或者parquet格式,这和目前主流的做法一致。