一、一句话告诉你CDH平台是什么正如开源的Linux系统有很多发行版一样,Hadoop也被众多公司二次开发产生了各种发行版本。 PS:Linux发行版我用红帽公司的CentOS,Hadoop发行版我用Cloudera公司的CDH(Cloudera’s Distribution Including Apache Hadoop)。二、Apache Hadoop存在的问题提到大数据、分布式存储就不得不提
转载
2023-12-14 22:23:23
118阅读
编辑:CrazyRabbit 日期:2022年6月23日本文是底盘K&C的入门简介。1. 什么是K&CK和C是两个英文单词的缩写,分别是Kinematic(运动学)和Compliance(柔性)的首字母。所谓的K&C,描述的是底盘(主要是悬架+转向系统)在受到外界输入后产生的变化。而这个变化,主要关心的是车轮(轮胎)的姿态变化,因为车辆能在地面上跑,全靠与地面接触的轮胎,而
转载
2024-04-29 21:45:18
119阅读
Cache和Buffer是两个不同的概念,简单的说,Cache是加速“读”,而buffer是缓冲“写”,前者解决读的问题,保存从磁盘上读出的数据,后者是解决写的问题,保存即将要写入到磁盘上的数据。在很多情况下,这两个名词并没有严格区分,常常把读写混合类型称为buffer cache,本文后续的论述中,统一称为cache。 Oracle中的log buffer是解决redo写入的问题,而d
什么是HDFSHDFS是一个使用Java实现的、分布式的、可横向扩展的文件系统。是Hadoop的核心组件基于Linux/NiunxHDFS和Hadoop的关系Hadoop:一个分布式系统基础架构,由Apache基金会开发。用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力高速运算和存储。 HDFS: Hadoop实现了一个分布式文件系统(Hadoop Distributed
转载
2023-08-18 20:52:46
157阅读
Hive知识点1.概念1.1Hive和Hadoop的关系1.2什么是Hive1.3Hive的本质1.4Hive应用场合2.Hive架构3.Hive PK RDMBS 1.概念1.1Hive和Hadoop的关系Hadoop:HDFS、MR、YRAN Hive 处理的数据存储在HDFS 分析数据底层的实现MR 执行程序运行用YARN相当于Hive将Hadoop进行了封装1.2什么是Hive1.Hiv
转载
2023-07-12 14:29:13
63阅读
clickHouse接入指南和排坑日记clickHouse分区和分片详解1. clickhouse简介和特点ClickHouse是一个面向联机分析处理(OLAP)的开源的面向列式存储的DBMS,简称CK, 与Hadoop, Spark相比,ClickHouse很轻量级,由俄罗斯第一大搜索引擎Yandex于2016年6月发布, 开发语言为C++。 ClickHouse的特点:开源的列存储数据库管理系
转载
2023-09-22 15:44:59
549阅读
1. 试述Hadoop和谷歌的MapReduce、GFS等技术之间的关系。Hadoop 是一个开源的分布式计算框架,其主要目的是为了处理大规模数据集。它包含了分布式文件系统 HDFS 和分布式计算框架 MapReduce,被广泛应用于大数据处理领域。谷歌的 MapReduce 和 GFS 技术则是 Hadoop 的灵感来源。MapReduce 是一种用于处理大规模数据集的编程模型和算法,它将数据分
转载
2023-11-30 06:18:51
747阅读
1.1 Spark 是什么Spark 是一种基于内存的快速、通用、可扩展的大数据分析计算引擎。1.2 Spark and Hadoop在之前的学习中,Hadoop 的 MapReduce 是大家广为熟知的计算框架,那为什么咱们还要学习新的计算框架 Spark 呢,这里就不得不提到 Spark 和 Hadoop 的关系。 搜图 编辑 请输入图片描述首先从时间节点上来看:➢ Hadoop2006 年
转载
2023-07-25 00:26:46
80阅读
什么是ETL:即extract:提取transform:转换load:加载ETL其实是数据清洗后的数据 什么是数据中台:从抽取数据开始,到最终用户看到,这一系列过程都是数据中台;指的是一套数据应用和工具,包括分布式ETL、数据资产管理、数据标签管理、数据沙箱、自助分析平台、元数据管理、数据质量管理等等,底层则已现有的数仓、大数据平台等为数据源,为企业提供数据资产管理的能力,并持续挖掘数据
转载
2023-07-11 22:42:02
208阅读
Hadoop:是一个分布式计算的开源框架HDFS:是Hadoop的三大核心组件之一Hive:用户处理存储在HDFS中的数据,hive的意义就是把好写的hive的sql转换为复杂难写的map-reduce程序。Hbase:是一款基于HDFS的数据库,是一种NoSQL数据库,主要适用于海量明细数据(十亿、百亿)的随机实时查询,如日志明细、交易清单、轨迹行为等。Hive与HBase的区别与联系区别:Hi
转载
2023-06-12 19:47:19
310阅读
文章目录Certificated Kubernetes Administrator模块一:Kubernetes核心概念 19%模块二:Kubernetes集群搭建、配置和验证 12%模块三:Kubernetes监控与日志管理 5%模块四:Kubernetes中应用程序生命周期管理 8%模块五:Kubernetes调度 5%模块六:Kubernetes网格 11%模块七:Kubernetes存储
转载
2024-08-05 21:58:15
73阅读
ODPS(Open Data Processing Service)是一个海量数据处理平台,基于阿里巴巴自主研发的分布式操作系统(飞天)开发,是公司云计算整体解决方案中最核心的主力产品之一。本文结合作者多年的数仓开发经验,结合ODPS平台分享数据仓库中的SQL优化经验。背景数据仓库,是一个面向主题、集成的、随时间变化的、信息本身相对稳定的数据集合。数据仓库从Oracle(单机、RAC),到MPP(
转载
2023-12-19 20:58:41
127阅读
Java-API对HDFS的操作哈哈哈哈,深夜来一波干货哦!!!Java-PAI对hdfs的操作,首先我们建一个maven项目,我主要说,我们可以通过Java代码来对HDFS的具体信息的打印,然后用java代码实现上传文件和下载文件,以及对文件的增删。首先来介绍下如何将java代码和HDFS联系起来,HDFS是分布式文件系统,说通俗点就是用的存储的数据库,是hadoop
转载
2023-07-24 10:21:38
58阅读
OceanBase是什么 OceanBase是一个支持海量数据的高性能数据库系统,实现了数千亿条记录、数百TB数据上的跨行跨表事务,由淘宝核心系统研发部、运维、DBA、广告、应用研发等部门共同完成。OceanBase解决什么问题 一个思路是通过类似map-reduce模型进行处理,例如Google的 GFS+MapReduce以及Hadoop的HDFS+MapReduce。这类方式为离线数据
转载
2023-08-30 22:38:00
202阅读
作为这几年热度颇高的一款开源产品,ClickHouse在国内的互联网大厂也陆续有被使用。在大数据开发学习阶段,也不妨多了解一下ClickHouse,下面我们主要来对ClickHouse架构做个简单的介绍。ClickHouse技术背景ClickHouse是基于MPP架构的分布式ROLAP(Relational OLAP)分析引擎。采用C++编写,自成一套体系,对第三方工具依赖少。支持较完整的DDL和
转载
2024-01-25 21:05:53
54阅读
说起Hadoop,玩大数据的没有一个不知道,Hadoop是由Apache基金会所开发的一个分布式系统基础架构,包含分布式文件系统HDFS(HadoopDistributed FileSystem)、分布式计算框架MapReduce、HIve数据仓库、Avro序列化工具等。而今天我们要给大家介绍一位新朋友Hbase,它是基于HDFS的非关系型大数据(非常适合存储,因为可以像HDFS一样做到存储的线性
转载
2023-10-22 16:33:29
82阅读
Kafka简介Kafka是一种高吞吐量的分布式发布订阅消息系统,它可以处理消费者规模的网站中的所有动作流数据。 它提供了类似于JMS的特性,但是在设计实现上完全不同,此外它并不是JMS规范的实现。kafka对消息保存时根据Topic进行归类,发送消息者成为Producer,消息接受者成为Consumer,此外kafka集群有多个kafka实例组成,每个实例(server)成为broker。无论是k
转载
2023-12-14 15:30:32
104阅读
一、Storm基本概念 在运行一个Storm任务之前,需要了解一些概念: Topologies Streams Spouts Bolts Stream groupings Reliability Tasks Workers Configuration Storm集群和Hadoop集群表面上看很类似。但是Hadoop上运行的是MapReduce jobs,而在Storm上运行的是拓扑(topolog
转载
2023-07-20 17:38:23
74阅读
Hadoop 2.0的本质 很多人提到Hadoop首先想到的是Map/Reduce,其实从2.0开始Hadoop已经从单纯的分布式M/R计算框架变成了 通用分布式框架 。
上图是Hadoop2.0的技术栈,在Hadoop 2.0中Hadoop底层划分为YARN和HDFS两个部分。YARN提供了集群资源管理,HDFS提供了分布式存储。在此之上开发出来的应用被称为 Applicat
转载
2024-01-23 22:34:53
75阅读
实习期间使用了两个月的odps ,之后升级用Hadoop 的Hive ,让我对数据库与数据仓库增进了一些理解,记录下来。简而言之,数据库是面向事务的设计,数据仓库是面向主题设计的。数据库一般存储在线交易数据,数据仓库存储的一般是历史数据。数据库设计是尽量避免冗余,一般采用符合范式的规则来设计,数据仓库在设计是有意引入冗余,采用反范式的方式来设计。数据库是为捕获数据而设计,数据仓
转载
2023-09-07 19:41:14
222阅读