近实时摄取
对于 RDBMS 关系型的摄入,Hudi提供了更快的 Upset 操作。例如,你可以通过 MySql binlog 的形式或者 Sqoop 导入到 hdfs上的对应的 Hudi表中,这样操作比 Sqoop 批量合并 job(Sqoop merge)和复杂合并工作流更加快速高效。
对于NoSql的数据库,比如Cassandra,Voldemort,Hbase,这种可以存储数十亿行的数据库。采用完全批量加载是根本不可行的,并且如果摄取数据要跟上通常较高的更新量,则需要更有效的方法。
即使对于像 Kafka 这样不可变数据库源,Hudi也会在 HDFS上强制执行最小文件大小,从而通过整体解决 Hadoop 领域中小文件过多问题,改善 NameNode 的运行状况。
对于事件流尤为重要,因为事件流通常较大(例如∶ 点击流),并且如果管理不善,可能会严重损害 Hadoop 集群。
在所有来源中,Hudi 都增加了急需的功能,即通过提交概念将新数据原子推送给消费者,避免摄入数据失败。
近实时分析
Hadoop上交互式的 SQL解决方案有 Presto 和 Spark sql,将数据的更新时间缩短至几分钟。
Hudi可以提供多种高效的替代方案,并可以对存储在 DFS 中的多个大小表进行实时分析,此外 Hudi 没有外部依赖,例如专用实时分析的专用HBase 集群,因此可以在不增加操作开销的情况下,进行更快更新鲜的分析。
增量处理管道
Hudi 通过提供一种以记录粒度(而不是文件夹/分区)消耗上游 Hudi表 HU 的新数据(包括最新数据),应用处理逻辑并有效地更新协调最新数据的方式再次进行救援。下游护桌HD。在这里,HU 和 HD可以以更频繁的时间表(例如 15 分钟)连续进行调度,并在HD 上提供30分钟的终端延迟。
DFS的数据分散
Hudi可以像Kafka 一样,用于数据分散,将每个管道的数据输出到Hudi表中,然后将其递增尾部以获取新数据并写入服务存储中。
和其他组件对比
和kudu对比
Kudu与分布式文件系统抽象和HDFS完全不同,它自己的一组存储服务器通过RAFT相互通信。另一方面,Hudi旨在与底层Hadoop兼容文件系统(HDFS,S3或 Ceph)一起使用,并且没有自己的存储服务器,而是依靠 Apache Spark来完成繁重的工作。因此,就像其他 Spark 作业一样,Hudi可以轻松扩展,而 Kudu 则需要硬件和操作支持,这对于HBase或 Vertica 这样的数据存储来说是典型的。
和Hbase对比
HBase 是 OLTP 工作负载的关键值存储,但鉴于与 Hadoop 的相似性,用户通常倾向于将 HBase 与分析相关联。鉴于HBase 经过严格的写优化,它支持开箱即用的亚秒级更新, Hive-on-HBase 允许用户查询该数据。 但是,就分析工作负载的实际性能而言,混合列式存储格式(例如 Parquet/ ORC)可以轻松击败 HBase,因为这些工作负载主要是读取繁重的工作。 Hudi弥补了更快的数据与具有分析性存储格式之间的差距。 从操作的角度来看,与仅管理分析用的大型 HBase 区域服务器场相比,为用户提供可提供更快数据的库更具可扩展性。 最终,HBase 不像 Hudi这样的一流公民来支持诸如提交时间,增量拉动之类的增量处理原语。
和streaming对比
Hudi 可以与当今的批处理(写时复制表)和流式(读时合并表)作业集成,以将计算 结果存储在 Hadoop中。对于Spark应用程序,这可以通过将 Hudi库与 Spark/Spark流式DAG直接集成来实现。在非 Spark处理系统(例如 Flink,Hive)的情况下,可以在各个系统中进行处理,然后通过 Kafka 主题/DFS中间文件将其发送到 Hudi 表中。从概念上讲,数据处理管道仅由三个部分组成 源,处理,接收器,用户最终针对接收器运行查询以使用管道的结果。 Hudi 可以充当将数据存储在 DFS上的源或接收器。 Hudi 在给定流处理管道上的适用性最终归结为 Presto / SparkSQL/ Hive 对您的查询的适用性。
基础知识
Timeline
Hudi 的核心是维护不同时间对表执行的所有操作的事件表,这有助于提供表的即时视图,同时还有效地支持按到达顺序进行数据检索。
Hudi 包含以下组件∶
(1)Instant action∶在表上的操作类型
(2)Instant time∶ 操作开始的一个时间戳,该时间戳会按照开始时间顺序单调递增
(3)state∶即时状态
Hudi 保证在时间轴上执行的操作都是原先性的,所有执行的操作包括∶
(1)commits∶原子的写入一张表的操作
(2)cleans∶后台消除了表中的旧版本数据,即表中不在需要的数据
(3)delta_commit增量提交,将一批数据原子写入到 MergeOnRead表中,并且只记录到增量日志中
(4)compaction∶后台协调 Hudi 中的差异数据
(5)rollback∶回滚,删除在写入过程中的数据
(6)savepoint∶将某些文件标记"已保存",以便清理数据时不会删除它们,一般用于表的还原,可以将数据还原到某个时间点
任何操作都可以处于以下状态
(1)Requested∶表示已安排操作行为,但是尚未开始
(2)Inflight∶表示正在执行当前操作
(3)Completed∶表示已完成操作
File management
Hudi将表组织成 DFS上基本路径下的目录结构。表分位几个分区,与hive类似,每个分区均有唯一标示。
在每个分区内,有多个数据组,每个数据组包含几个文件片,其中文件片包含基本文件和日志文件。Hudi采用 MVCC设计,其中压缩操作将日志文件和基本数据文件合并成新的文件片,而清楚操作则将未使用的文件片去除。
索引
Hudi通过使用索引机制,生成 hoodie密钥映射对应文件ID,从而提供高效 upsert 操作。
表类型
(1)Copy on Write∶仅使用列式存储,例如 parquet。仅更新版本号,通过写入过程中执行同步合并来重写文件
(2)Merge on Read∶基于列式存储(parquet)和行式存储(arvo)结合的文件更始进行存储。更新记录到增量文件,压缩同步和异步生成新版本的文件
查询类型
(1)快照查询(Snapshot Queries)∶查询操作将查询最新快照的表数据。如果是 Merge on Read类型的表,它将动态合并最新文件版本的基本数据和增量数据用于显示查询。如果是 Copy On Write 类型的表,它直接查询 parquet 表,同时提供upsert/delete 操作.
(2)增量查询(Incremental Queries)∶查询只能看到写入表的新数据。这有效的提供了 change streams 来启用增量数据管道。
(3)优化读查询(Read Optimized Queries)∶ 查询将查看给定提交/压缩操作表的最新快 照