Flume是一个分布式、可靠、和高可用的海量日志聚合的系统(使用java编写,需要运行在jdk6或以上环境),最早由cloudera开发,现已经并入Apache社区。支持在系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据接受方(可定制)的能力。Flume分为两个主要打

  • Flume OG:Flume original generation 即Flume 0.9.x版本
  • Flume NG:Flume next generation ,即Flume 1.x版本

一、Flume OG : 可以说他是一个分布式日志收集系统,有Mater概念,依赖于zookeeper,以下是其架构图 flume简介_数据

Flume采用了分层架构:分别为agent,collector和storage。 其中,agent和collector均由两部分组成:source和sink,source是数据来源,sink是数据去向。Flume使用两个组件:Master和Node,Node根据在Master shell或web中动态配置,决定其是作为Agent还是Collector。

Agent用于采集数据,agent是flume中产生数据流的地方,同时,agent会将产生的数据流传输到collector。对应的,collector用于对数据进行聚合,往往会产生一个更大的流。



1、agent的作用是将数据源的数据发送给collector。


1)Flume自带了很多直接可用的数据源(source),如:


text(“filename”):将文件filename作为数据源,按行发送


tail(“filename”):探测filename新产生的数据,按行发送出去


fsyslogTcp(5140):监听TCP的5140端口,并且接收到的数据发送出去


tailDir("dirname"[, fileregex=".*"[, startFromEnd=false[, recurseDepth=0]]]):监听目录中的文件末尾,使用正则去选定需要监听的文件(不包含目录),recurseDepth为递归监听其下子目录的深度


2)同时提供了很多sink,如:


console[("format")] :直接将将数据显示在consolr上


text(“txtfile”):将数据写到文件txtfile中


dfs(“dfsfile”):将数据写到HDFS上的dfsfile文件中


syslogTcp(“host”,port):将数据通过TCP传递给host节点


agentSink[("machine"[,port])]:等价于agentE2ESink,如果省略,machine参数,默认使用flume.collector.event.host与flume.collector.event.port作为默认collecotr


agentDFOSink[("machine" [,port])]:本地热备agent,agent发现collector节点故障后,不断检查collector的存活状态以便重新发送event,在此间产生的数据将缓存到本地磁盘中


agentBESink[("machine"[,port])]:不负责的agent,如果collector故障,将不做任何处理,它发送的数据也将被直接丢弃


agentE2EChain:指定多个collector提高可用性。 当向主collector发送event失效后,转向第二个collector发送,当所有的collector失败后,它会非常执着的再来一遍



2、collector


collector的作用是将多个agent的数据汇总后,加载到storage中。它的source和sink与agent类似。



1)数据源(source),如:

collectorSource[(port)]:Collector source,监听端口汇聚数据


autoCollectorSource:通过master协调物理节点自动汇聚数据


logicalSource:逻辑source,由master分配端口并监听rpcSink



2)sink,如:

collectorSink( "fsdir","fsfileprefix",rollmillis):collectorSink,数据通过collector汇聚之后发送到hdfs, fsdir 是hdfs目录,fsfileprefix为文件前缀码


customdfs("hdfspath"[, "format"]):自定义格式dfs



3、 storage

storage是存储系统,可以是一个普通file,也可以是HDFS,HIVE,HBase,分布式存储等。




(4) Master


Master是管理协调agent和collector的配置等信息,是flume集群的控制器。




 在Flume中,最重要的抽象是data flow(数据流),data flow描述了数据从产生,传输、处理并最终写入目标的一条路径。


对于agent数据流配置就是从哪得到数据,把数据发送到哪个collector。

对于collector是接收agent发过来的数据,把数据发送到指定的目标机器上。


注:Flume框架对hadoop和zookeeper的依赖只是在jar包上,并不要求flume启动时必须将hadoop和zookeeper服务也启动。


二、Flume NG 而对于 Flume NG ,它摒弃了Master和zookeeper,collector也没有了,web配置台也没有了,只剩下source,sink和channel,此时一个Agent的概念包括source,channel和sink,完全由一个分布式系统变成了传输工具。不同机器之间的数据传输不再是OG那样由agent->collector,而是由一个Agent端的sink流向另一个agent的source。其新的架构如下

flume简介_flume_02


flume简介_数据源_03