Hadoop集群hdfs添加磁盘操作目前的环境是cdh。服务器部署在Azure;一台cdhmaster(一个namenode,一个datanode),四台cdhslave节点(各一个datanode)。hdfs现状:首先是在Azure控制台对每台服务器添加一块磁盘(我这添加的是4T)在到服务器中对每台服务器进行添加磁盘操作:因为在Linux中,常用2种分区表: MBR分区表(即主引导记录) 所支持
转载 2023-07-12 13:30:22
103阅读
一、HDFS(Hadoop Distributed File System的英文首字母缩写) 意思是Hadoop分布式文件系统,主要用来解决海量数据的存储问题 概念: HDFS是一个分布式的(何为分布式?在空间的任意点上随意分布)由很多服务器联合起来实现其功能,集群中的服务器有各自的角色。其次是一个文件系统,用于存储文件,通过统一的命名空间–目录树来定位文件。 二、HDFS的设计思想 1、分散均匀
转载 2023-11-10 01:22:33
62阅读
一.背景为了使得MapReduce计算后的结果显示更加人性化,Hadoop提供了分区的功能,可以使得MapReduce计算结果输出到不同的分区中,方便查看。Hadoop提供的Partitioner组件可以让Map对Key进行分区,从而可以根据不同key来分发到不同的reduce中去处理,我们可以自定义key的分发规则,如数据文件包含不同的省份,而输出的要求是每个省份对应一个文件。 二:技
转载 2023-09-21 23:59:29
110阅读
HDFS简介HDFS(HadoopDistributedFileSystem)即hadoop分布式文件存储系统。原理 将大文件、大批量文件,分布式存储在大量服务器上,以便采取分而治之的方式对海量数据进行分析。重要概念 文件切块:HDFS中的文件在物理上是分块存储的,block的大小可以通过配置参数自己设置。副本:datanode是HDFS集群的从节点,每个block可以在多个datanode
转载 2023-07-12 15:08:24
384阅读
大佬原话:深入理解一个技术的工作机制是灵活运用和快速解决问题的根本方法,也是唯一途径。对于HDFS来说除了要明白它的应用场景和用法以及通用分布式架构之外更重要的是理解关键步骤的原理和实现细节。HDFS是一个分布式文件系统,用于存储和管理文件。 一、HDFS的功能模块及原理1.1 HDFS中的文件在物理上是分块存储(block)-- 文件被切分成固定大小的数据块block • 默认数据
一. Partitioner分区1. Partitioner的作用:进行MapReduce计算时,有时候需要把最终的输出数据分到不同的文件中,我们知道最终的输出数据是来自于Reducer任务。那么,如果要得到多个文件,意味着有同样数量的Reducer任务在运行。Reducer任务的数据来自于Mapper任务,也就说Mapper任务要划分数据,对于不同的数据分配给不同的Reducer任务运行。Ma
一、导入新课带领学生回顾项目三Hadoop集群相关的知识,由于Hadoop的核心是HDFS和MapReduce。其中,HDFS是解决海量大数据文件存储的问题,是目前应用最广泛的分布式文件系统。因此,本次课将针对HDFS分布式文件系统进行详细讲解 二、新课讲解(一)HFDS的演变HDFS 源于 Google 在2003年10月份发表的GFS(Google File System)论文,接下
转载 2024-02-18 15:59:26
71阅读
一  分块(Block)      HDFS存储系统中,引入了文件系统的分块概念(block),块是存储的最小单位,HDFS定义其大小为64MB。与单磁盘文件系统相似,存储在 HDFS上的文件均存储为多个块,不同的是,如果某文件大小没有到达64MB,该文件也不会占据整个块空间。在分布式的HDFS集群上,Hadoop系统保证一个块存储在一个datanode上。
转载 2023-09-20 12:06:58
69阅读
Hadoop 生态是一个庞大的、功能齐全的生态,但是围绕的还是名为 Hadoop 的分布式系统基础架构,其核心组件由四个部分组成,分别是:Common、HDFS、MapReduce 以及 YARN。 Common 是 Hadoop 架构的通用组件; HDFSHadoop 的分布式文件存储系统; MapReduce 是Hadoop 提供的一种编程模型,可用于大规模数据集的并行运算; YARN
转载 2023-09-13 11:24:12
108阅读
HDFS API详解org.apache.hadoop.fs"包中,这些API能够支持的操作包含:打开文件,读写文件,删除文件等。Hadoop类库中最终面向用户提供的接口类是FileSystem,该类是个抽象类,只能通过来类的get方法得到具体类。get方法存在几个重载版本,常用的是这个: static FileSystem get(Configuration conf);  
转载 2023-07-23 23:39:36
112阅读
Hadoop的配置详解   大家经过搭建单节点、伪分布、完全分布模式的集群环境,基本上会用到以下几个配置,core-site.xm/hdfs-site.xml/mapred-site.xml.   相信大家已经使用了其中的一些参数,下面我们来详细介绍一下各个配置中的参数,介绍的参数是大家可能用到的,当然还有很多没介绍到(学习hadoop不久,如果哪里错了,请
这篇博客是笔者在CSDN里的第一篇博客,旨在希望在这个圈子能够得到更多的交流、更快的成长。 这篇博客就讲些比较基础的内容——常用HDFS的API操作。因为所有的API比较多,所以笔者便从中摘选出11个比较常用的API,希望能给读者一些帮助。因为Hadoop中关于文件操作类基本上都在“org.apache.hadoop.fs”包中,这些API的主要作用主要体现在以下操作上:打开文件、读写文件、删除文
转载 2023-09-01 08:28:43
85阅读
HDFS Java API 可以用于任何Java程序与HDFS交互,该API使我们能够从其他Java程序中利用到存储在HDFS中的数据,也能够使用其他非Hadoop的计算框架处理该数据 为了以编程方式与HDFS进行交互,首先需要得到当前配置文件系统的句柄,实例化一个Configuration对象,并获得一个Hadoop环境中的FileSystem句柄,它将指向当前环境的HDFS NameNode
转载 2023-09-01 08:26:09
73阅读
一、视图什么是视图? 视图是从数据库中的基本表中选取的数据组成的逻辑窗口。它只是一个虚表,不进行实际的存储。数据库只存放视图的定义,数据项仍然存放在原来的基本表结构中。 视图可以被用于多个表的连接,也可以定义为部分行(列)可见。 Hive视图是一种无关底层存储的逻辑对象,视图中的数据是select查询返回的结果。视图的作用 1.简化查询语句 2.提高数据的安全性 3.视图保证了一定程度的逻辑独立性
转载 2023-09-04 21:10:00
78阅读
HDFS Java API 位于 org.apache.hadoop.fs 包中,这些API能够支持的操作包括打开文件、读写文件、删除文件等。Hadoop类库中最终面向用户提供的接口类是FileSystem。该类是一个抽象类,只能通过get方法获取到具体的类。该类封装了大部分文件操作,如mkdir、delete等。 <!--指定maven项目jdk编译版本,默认是jdk1.5--&
转载 2023-08-18 19:31:40
78阅读
目录1:创建目录2、查看文件,ls 没有cd命令, 需要指定绝对路径3:上传文件 put(要先把数据上传到linux本地然后再上传)4:下载文件 get5:复制 cp6:查看文件内容 cat , 如果数据量比较大,不能使用7:移动 mv, 物理层面文件没有移动,只是改变了元数据(目录结构)8:删除文件或者目录 rmr9:查看文件末尾 tail -f ; 一直等待查看10、查看文件的大小11:查看日
转载 2023-08-18 20:45:55
176阅读
最近刚好又重新了解了一下hdfs的一些内容,想通过这篇内容总结和记录一下。Hadoop分布式文件系统HDFS配置及示例运行。 作者使用的是hadoop3.2.1的版本,以下示例都是以hadoop-3.2.1为基础目录进行介绍。1、文件配置首先,进入hadoop配置目录: ./etc/hadoop$ cd etc/hadoop/(1) 配置core-site.xml文件vi 进入编辑模式$ vi c
文章目录Hadoop三大组件之HDFS入门HDFS概述HDFS的shell操作(开发重点)基础语法部分常用命令实操上传下载HDFS的直接操作 Hadoop三大组件之HDFS入门众所周知,Hadoop有三大组件,HDFS、MapReduce、YARN。我的专栏是说大数据,那么数据总得需要存储吧,那么我们今天一起来看看这神秘的大数据有着怎样的身体,能够吸引这广大的学子来”看她“。HDFS概述存在即合
转载 2023-07-14 20:17:28
95阅读
HDFS前言设计的的思想:主要的是分而治之,将大的文件分割称为一个个小的文件,存储在各个机器上。在大数据中的应用:为大数据框架提供储存数据的服务重点概念:文件分块、副本存放、元数据。HDFS的概念和特性首先,它是一个文件系统,用于存储文件,通过统一的命名空间——目录树来定位文件。其次,它是分布式的,很多服务器联合实现功能。HDFS组成结构图HDFS 写文件的基本流程先来了解几个概念block文件上
一、分区表 ### --- 分区表 ~~~ Hive在执行查询时,一般会扫描整个表的数据。由于表的数据量大,全表扫描消耗时间长、效率低。 ~~~ 而有时候,查询只需要扫描表中的一部分数据即可,Hive引入了分区表的概念, ~~~ 将表的数据存储在不同的子目录中,每一个子目录对应一个分区。 ~~~ 只查询部分分区数据时,可避免全表扫描,提高查
  • 1
  • 2
  • 3
  • 4
  • 5