apache大数据数仓各组件部署搭建第一章 环境准备1. 机器规划准备3台服务器用于集群部署,系统建议CentOS7+,2核8G内存172.19.195.228 hadoop101 172.19.195.229 hadoop102 172.19.195.230 hadoop103[root@hadoop101 ~]# cat /etc/redhat-release CentOS Linux re
1、Oozie介绍官网首页介绍:​​​​http://oozie.apache.org​​​1.1 Oozie是一个管理 Apache Hadoop 作业的工作流调度系统。1.2 Oozie的 workflow jobs 是由 actions 组成的 有向无环图(DAG)。1.3 Oozie的 coordinator jobs 是由时间 (频率)和数据可用性触发的重复的 workflow jobs
原创 精选 2023-02-19 13:35:04
329阅读
3点赞
组件总览 Zookeeper部署 创建目录 解压 环境变量 配置服
原创 2022-05-29 00:07:10
902阅读
文章目录1. 分布式文件系统(HDFS)1)NameNode2)SecondaryNode2. 资源管理调度框架Yarn1)ResourceManager2)ApplicationMaster3)NodeManager4)Container3. 分布式协调服务ZooKeeper4. 数据仓库工具Hive1)HiveServer25. 分布式计算框架Spark1)Spark SQL2)Spark
大数据集群安装写在前头集群安装部署HadoopHA与ZOOKEEPERHBASEHIVEFLUMEKAFKASPARKKylinKafka-eagel问题排查 写在前头本文就是一些个人安装 Apache Hadoop集群(包括其一些生态组件)时的一些过程。集群安装部署Hadoop确定集群数,最好为奇数台修改hosts文件映射(最好保证机器的ip为静态ip)上传Hadoop,jdk压缩包,并解压配
转载 2023-07-12 14:44:41
45阅读
文章目录1.Hadoop1.1 定义1.2 特点优点1.3 Hadoop优化1.3.1 Mapreduce跑的慢的原因1.3.2 优化方法2.HDFS2.1 HDFS设计目标2.2 HDFS的重要特性2.3 优缺点2.4 小文件解决方法3.HBase3.1 特点3.2 架构4.Zookeeper4.1 工作机制4.2 特点4.2 选举机制4.3 监听器原理4.4 部署方式有哪几种?集群中的角色有
Apache DolphinScheduler 是一个分布式易扩展的可视化 DAG 工作流任务调度系统。致力于解决数据处理流程中错综复杂的依赖关系,使调度系统在数据处理流程中开箱即用。 主要特性 易于部署,提供四种部署方式,包括Standalone、Cluster、Docker和Kubernetes 易于使用,可以通过四种方式创建和管理工作流,包括Web UI、Python SDK和Open
原创 10月前
109阅读
HDFS:  用于存放一切信息的分布式的文件系统。大数据系统由于其涉及到的数据量较大所以往往需要仰赖于一个数据仓库系统,将所有的数据能够分门别类地存储起来,而HDFS就是这样一个仓库。需要注意一点,HDFS并不是我们通常实际用来查询或者处理数据数据仓库组件,其更像是仓库本身,是一个偏硬件,偏系统化的概念,用于将所有的信息都囊括进去。MapReduce:  软件框架,编写程序。用于实际进行计算数据
转载 2024-01-15 17:48:21
47阅读
离线计算组件1.1 hive hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供简单的sql查询功能,可以将sql语句转换为MapReduce任务进行运行。 其优点是学习成本低,可以通过类SQL语句快速实现简单的MapReduce统计,不必开发专门的MapReduce应用,十分适合数据仓库的统计分析。但是在转换为MapReduce的计算过程中,计算速度
转载 2023-08-28 20:47:02
100阅读
文章目录一、Hadoop&HIVE1.1 HDFS读写流程1.1.1 HDFS读流程1.1.2 HDFS写流程1.2 HDFS文件和目录数过多问题1.3 文件压缩格式及存储格式1.3.1 存储格式1.3.2 压缩格式1.4 MR Shuffle过程1.5 MR任务优化1.5.1 输入小文件过多1.5.2 数据倾斜1.6 HIVE SQL1.7 HIVE架构及解析成MR的过程1.8 HIV
转载 2024-02-22 23:49:20
40阅读
大数据性能测试的目的1.大数据组件的性能回归,在版本升级的时候,进行新旧版本的性能比对。2.在新版本/新的生产环境发布之后获取性能基线,建立可度量的参考标准,为其他测试场景或者调优过程提供对比参考。3.在众多的发行版本中进行测试比对,为PoC测试提供参考数据。4.支持POC测试,得出结论,到时候可以根据业务模型和需求,或者根据客户需求选择不同的方案。5.在客户方进行性能测试,达到客户要求的性能标准
大数据平台架构:大数据平台组件:简单介绍一下大数据平台的一般架构?列举一些常见的组件1、数据大数据处理的起点,数据来源一般包括:业务数据、日志数据、埋点数据、第三方数据。2、数据采集数据采集(或数据同步)是将各种数据来源统一采集/同步到数据仓库中,包括全量和增量两种采集方式。常用的采集工具包括:Sqoop:用于HDFS与关系型数据库(如:mysql、Postgres、Oracle)之间的同步。C
Spark SQLSpark SQL 是 Spark 处理结构化数据的程序模块。它将 SQL 查询与 Spark 程序无缝集成,可以将结构化数据作为 Spark 的 RDD 进行查询。RDD 的全称为 Resilient Distributed Datasets,即弹性分布式数据集,是 Spark 基本的数据结构。Spark 使用 RDD 作为分布式程序的工作集合,提供一种分布式共享内存的受限形式
转载 2024-07-04 04:15:32
62阅读
大数据概要流程图解析1)数据采集:定制开发采集程序,或使用开源框架FLUME 2)数据预处理:定制开发mapreduce程序运行于hadoop集群 3)数据仓库技术:基于hadoop之上的Hive 4)数据导出:基于hadoop的sqoop数据导入导出工具 5)数据可视化:定制开发web程序或使用kettle等产品 6)整个过程的流程调度:hadoop生态圈中的oozie工具或其他类似开源产品什么
文章目录一、 RDD 概述1.1 RDD 引入之IO流1.2 什么是 RDD1.3 RDD 特性二、RDD 编程2.1 编程模型2.2 RDD的创建及分区数指定2.3 Transformation 转换算子 *2.3.1 Value类型2.3.2 双Value类型2.3.3 Key-Value 类型2.4 Action 行动算子2.5 RDD 序列化2.6 RDD 依赖关系2.7 Spark 任
转载 2024-03-26 16:37:42
22阅读
本文目录Hadoop 原理hdfs读流程hdfs写流程Hive 原理HBase 原理Flume 运行原理kafka 原理MapReduce 原理Spark 原理 Hadoop 原理hdfs读流程HDFS文件读流程:客户端读取数据的过程如下:(1)首先客户端会调用FileSystem. open()方法获取的dfs实例,dfs会向远程的NameNode发送RPC请求。 (2)然后NameNode会
一、晋升为Apache TLP(Top-Level Project)的大数据相关项目1.1、Apache® DataSketches™ (20210203)1.2、Apache® Gobblin™ (20210216) **1.3、Apache® DolphinScheduler™ (20210408) **1.4、Apache® Pinot™ (20210
Apache Flume是Cloudera提供的一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的软件。Flume的核心是把数据数据源(source)收集过来,再将收集到的数据送到指定的目的地(sink)。为了保证输送的过程一定成功,在送到目的地(sink)之前,会先缓存数据(channel),待数据真正到达目的地(sink)后,flume在删除自己缓存的数据。  Flume支持各类
转载 9月前
142阅读
1评论
大数据处理组件HDFS : 数据存储 Hadoop项目的核心子项目,是分布式计算中数据存储管理的基础,是基于流数据模式访问和处理超大文件的需求而开发的 具有的高容错、高可靠性、高可扩展性、高获得性、高吞吐率等特征为海量数据提供了不怕故障的存储,为超大数据集(Large Data Set)的应用处理带来了很多便利。hdfs优点: 1、高容错性 1)数据自动保存多个副本。它通过增加副
Apache Flink是一个高效、分布式、基于Java实现的通用大数据分析引擎,它具有分布式 MapReduce一类平台的高效性、灵活性和扩展性以及并行数据库查询优化方案,它支持批量和基于流的数据分析,且提供了基于Java和Scala的API。从Apache官方博客中得知,Flink已于近日升级成为Apache基金会的顶级项目。Flink项目的副总裁对此评论到:\\ Flink能够成为基金会的
转载 2024-01-29 02:12:46
48阅读
  • 1
  • 2
  • 3
  • 4
  • 5