下一周学习Yarn
HDFS简介
HDFS(Hadoop Distribute File System, Hadoop分布式文件系统),是Hadoop核心组成,是分布式存储服务。
分布式文件存储系统横跨多台计算机,在大数据时代有着广泛的应用前景。它们为存储和处理超大规模数据提供所需的扩展能力。HDFS是分布式文件系统中的一种。
HDFS重要概念
HDFS通过统一的命名空间目录树来定位文件。并且HDFS是分布式的,由很多的服务器联合起来实现相应功能,在集群中服务器都有着各自的角色,各司其职。
- 典型的master/slave架构
HDFS的架构是典型的master/slave结构。
HDSF往往需要是一个NameNode(HA架构会有两个NameNode,联邦机制)+ 多个DataNode组成。
NameNode是集群的主节点,DataNode是集群的从节点。
- 分块存储(block机制)
HDFS中的文件在物理上分块存储的(block),快的大小可以通过配置参数来指定。
在Hadoop2.x版本中默认的block大小是128M。
- 命名空间(Namespace)
HDFS支持传统的层次型文件组织结构。用户或者应用程序可以创建目录,然后将文件保存在这些目录里。文件系统命名空间的层次结构和大多数现有的文件系统类似。用户可以创建、删除、移动、或者重命名文件。
NameNode服务维护文件系统的命名空间,任何对系统的命名空间或属性的修改都将被NameNode记录下来。
HDFS提供给客户一个抽象目录树,访问形式:hdfs://namenode的hostname:port/test/input
- NameNode元数据管理
我们把目录结构和文件分块位置信息叫做元数据。
NameNode的元数据记录每一个文件所对应的block信息(block的ID以及所在DataNode节点的信息)
- DataNode数据存储
文件的各个block具体存储管理由DataNode节点承担。一个block会有多个DataNode存储,DataNode会定时的向NameNode汇报自己持有的block信息。
- 副本机制
为了容错,文件的所有block的都会存在副本。每个文件的block的大小和副本系数都是可以配置的。应用程序可以指定某个文件的副本数目。副本系数可以在文件创建时指定,也可以在之后改变。副本系数默认是3。
- 一次写入,多次读出
HDFS是设计成适应一次写入、多次读出的场景。且不支持文件的随机修改。(支持文件追加,不支持随机修改)
正因为如此,HDFS适合做大数据分析的底层存储服务,并不适用做网盘等应用(修改不方便、延迟高、网络开销大、成本太高)
HDFS架构
- ameNode HDFS集群的管理者,Master
- 维护管理HDFS的命名空间(Namespace)
- 维护副本策略
- 记录文件块(block)的映射信息
- 负责处理客户端的读写请求
- DataNode NameNode下达命令,DataNode执行实际的操作,Slave节点
- 保存实际的块数据
- 负责数据库块的读写
- Client客户端
- 上传文件到HDFS的时候,client负责将文件切分成block,然后进行上传
- 请求NameNode交互,获取文件的位置信息
- 读取或写入文件,与DataNode进行交互
- Client可以使用一些命令来管理HDFS或访问HDFS
HDFS客户端操作
shell命令行操作HDFS
基本语法
bin/hadoop fs 具体命令 OR bin/hdfs dfs 具体命令
命令大全
[root@linux121 hadoop-2.9.2]# bin/hdfs dfs
Usage: hadoop fs [generic options]
[-appendToFile <localsrc> ... <dst>]
[-cat [-ignoreCrc] <src> ...]
[-checksum <src> ...]
[-chgrp [-R] GROUP PATH...]
[-chmod [-R] <MODE[,MODE]... | OCTALMODE> PATH...]
[-chown [-R] [OWNER][:[GROUP]] PATH...]
[-copyFromLocal [-f] [-p] [-l] [-d] <localsrc> ... <dst>]
[-copyToLocal [-f] [-p] [-ignoreCrc] [-crc] <src> ... <localdst>]
[-count [-q] [-h] [-v] [-t [<storage type>]] [-u] [-x] <path> ...]
[-cp [-f] [-p | -p[topax]] [-d] <src> ... <dst>]
[-createSnapshot <snapshotDir> [<snapshotName>]]
[-deleteSnapshot <snapshotDir> <snapshotName>]
[-df [-h] [<path> ...]]
[-du [-s] [-h] [-x] <path> ...]
[-expunge]
[-find <path> ... <expression> ...]
[-get [-f] [-p] [-ignoreCrc] [-crc] <src> ... <localdst>]
[-getfacl [-R] <path>]
[-getfattr [-R] {-n name | -d} [-e en] <path>]
[-getmerge [-nl] [-skip-empty-file] <src> <localdst>]
[-help [cmd ...]]
[-ls [-C] [-d] [-h] [-q] [-R] [-t] [-S] [-r] [-u] [<path> ...]]
[-mkdir [-p] <path> ...]
[-moveFromLocal <localsrc> ... <dst>]
[-moveToLocal <src> <localdst>]
[-mv <src> ... <dst>]
[-put [-f] [-p] [-l] [-d] <localsrc> ... <dst>]
[-renameSnapshot <snapshotDir> <oldName> <newName>]
[-rm [-f] [-r|-R] [-skipTrash] [-safely] <src> ...]
[-rmdir [--ignore-fail-on-non-empty] <dir> ...]
[-setfacl [-R] [{-b|-k} {-m|-x <acl_spec>} <path>]|[--set <acl_spec>
<path>]]
[-setfattr {-n name [-v value] | -x name} <path>]
[-setrep [-R] [-w] <rep> <path> ...]
[-stat [format] <path> ...]
[-tail [-f] <file>]
[-test -[defsz] <path>]
[-text [-ignoreCrc] <src> ...]
[-touchz <path> ...]
[-truncate [-w] <length> <path> ...]
[-usage [cmd ...]]
Generic options supported are:
-conf <configuration file> specify an application configuration file
-D <property=value> define a value for a given property
-fs <file:///|hdfs://namenode:port> specify default filesystem URL to use,
overrides 'fs.defaultFS' property from configurations.
-jt <local|resourcemanager:port> specify a ResourceManager
-files <file1,...>
copied to the map reduce cluster
-libjars <jar1,...>
be included in the classpath
-archives <archive1,...>
be unarchived on the compute machines
HDFS命令演示
- 启动Hadoop集群
[root@linux121 ~]# start-dfs.sh
Starting namenodes on [linux121]
linux121: starting namenode, logging to /opt/lagou/servers/hadoop-2.9.2/logs/hadoop-root-namenode-linux121.out
linux122: starting datanode, logging to /opt/lagou/servers/hadoop-2.9.2/logs/hadoop-root-datanode-linux122.out
linux123: starting datanode, logging to /opt/lagou/servers/hadoop-2.9.2/logs/hadoop-root-datanode-linux123.out
linux121: starting datanode, logging to /opt/lagou/servers/hadoop-2.9.2/logs/hadoop-root-datanode-linux121.out
Starting secondary namenodes [linux123]
linux123: starting secondarynamenode, logging to /opt/lagou/servers/hadoop-2.9.2/logs/hadoop-root-secondarynamenode-linux123.out
[root@linux123 ~]# start-yarn.sh
starting yarn daemons
starting resourcemanager, logging to /opt/lagou/servers/hadoop-2.9.2/logs/yarn-root-resourcemanager-linux123.out
linux122: starting nodemanager, logging to /opt/lagou/servers/hadoop-2.9.2/logs/yarn-root-nodemanager-linux122.out
linux121: starting nodemanager, logging to /opt/lagou/servers/hadoop-2.9.2/logs/yarn-root-nodemanager-linux121.out
linux123: starting nodemanager, logging to /opt/lagou/servers/hadoop-2.9.2/logs/yarn-root-nodemanager-linux123.out
- -help 输出这个命令的参数
[root@linux121 hadoop-2.9.2]$ hadoop fs -help rm
- -ls 显示目录信息
[root@linux121 hadoop-2.9.2]$ hadoop fs -ls /
- -mkdir 在HDFS上创建目录
[root@linux121 hadoop-2.9.2]$ hadoop fs -mkdir -p /lagou/bigdata
- -moveFromLocal 从本地剪切到HDFS
[root@linux121 hadoop-2.9.2]$ touch hadoop.txt
[root@linux121 hadoop-2.9.2]$ hadoop fs -moveFromLocal ./hadoop.txt
/lagou/bigdata
- -appendToFile 追加一个文件到已经存在的文件末尾
[root@linux121 hadoop-2.9.2]$ touch hdfs.txt
[root@linux121 hadoop-2.9.2]$ vi hdfs.txt
namenode datanode block replication
[root@linux121 hadoop-2.9.2]$ hadoop fs -appendToFile ./hdfs.txt /lagou/bigdata/hadoop.txt
- -cat 显示文件内容
[root@linux121 hadoop-2.9.2]$ hadoop fs -cat /lagou/bigdata/hadoop.txt
- -chgrp -chmod -chown 修改文件所属权限
[root@linux121 hadoop-2.9.2]$ hadoop fs -chmod 666 /lagou/bigdata/hadoop.txt
[root@linux121 hadoop-2.9.2]$ hadoop fs -chown root:root /lagou/bigdata/hadoop.txt
- -copyFromLocal 从本地文件系统中拷贝文件到HDFS
[root@linux121 hadoop-2.9.2]$ hadoop fs -copyFromLocal README.txt /
- -copyToLocal 从HDFS拷贝到本地
[root@linux121 hadoop-2.9.2]$ hadoop fs -copyToLocal /lagou/bigdata/hadoop.txt ./
- -cp 从HDFS路径拷贝到HDFS另一个路径
[root@linux121 hadoop-2.9.2]$ hadoop fs -cp /lagou/bigdata/hadoop.txt /hdfs.txt
- -mv 在HDFS中移动文件
[root@linux121 hadoop-2.9.2]$ hadoop fs -mv /hdfs.txt /lagou/bigdata/
- -get 等同于copyToLocal,从HDFS上下载文件
[root@linux121 hadoop-2.9.2]$ hadoop fs -get /lagou/bigdata/hadoop.txt ./
- -put 等同于copyFromLocal
[root@linux121 hadoop-2.9.2]$ hadoop fs -mkdir -p /user/root/test/
#本地文件系统创建yarn.txt
[root@linux121 hadoop-2.9.2]$ vim yarn.txt
resourcemanager nodemanager
[root@linux121 hadoop-2.9.2]$ hadoop fs -put ./yarn.txt /user/root/test/
- -tail 显示一个文件的末尾
[root@linux121 hadoop-2.9.2]$ hadoop fs -tail /user/root/test/yarn.txt
- -rm 删除文件或者文件夹
[root@linux121 hadoop-2.9.2]$ hadoop fs -rm /user/root/test/yarn.txt
- -rmdir 删除空目录
[root@linux121 hadoop-2.9.2]$ hadoop fs -mkdir /test
[root@linux121 hadoop-2.9.2]$ hadoop fs -rmdir /test
- -du 统计文件夹的大小
[root@linux121 hadoop-2.9.2]$ hadoop fs -du -s -h /user/root/test
[root@linux121 hadoop-2.9.2]$ hadoop fs -du -h /user/root/test
- -setrep 设置HDFS中文件的副本数量
[root@linux121 hadoop-2.9.2]$ hadoop fs -setrep 10 /lagou/bigdata/hadoop.txt
副本数量如图
这里需要注意的是,假如你只有3台机器但是你指定的副本数量为9那么,在这里显示的副本数量为9.但是实际的副本数量还是只为3。当你有9台机器时指定副本为9HDFS才会生成9个副本。
JAVA客户端操作
- windows需要配置Hadoop环境变量
- 将Hadoop安装文件解压到非中文路径下
- 配置Hadoop系统的环境变量 HADOOP_HOME
- 配置PATH变量
- mac系统不需要配置Hadoop运行环境即可
- 创建MAVEN工程并导入Hadoop坐标
<dependencies>
<dependency>
<groupId>junit</groupId>
<artifactId>junit</artifactId>
<version>RELEASE</version>
</dependency>
<dependency>
<groupId>org.apache.logging.log4j</groupId>
<artifactId>log4j-core</artifactId>
<version>2.8.2</version>
</dependency>
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-common</artifactId>
<version>2.9.2</version>
</dependency>
<!-- https://mvnrepository.com/artifact/org.apache.hadoop/hadoop-client -->
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-client</artifactId>
<version>2.9.2</version>
</dependency>
<!-- https://mvnrepository.com/artifact/org.apache.hadoop/hadoop-hdfs -->
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-hdfs</artifactId>
<version>2.9.2</version>
</dependency>
</dependencies>
- 创建HDFSclient 实体类
package com.lcy;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.junit.Test;
import java.io.IOException;
import java.net.URI;
import java.net.URISyntaxException;
/**
* hdfs客户端
*
* @author lichunyu
* @since 2021/11/18
*/
public class HdfsClient {
/**
* 测试HDFS创建文件夹
*/
@Test
public void mkdirs() throws IOException, URISyntaxException, InterruptedException {
// 创建Hadoop配置对象
final Configuration configuration = new Configuration();
// 配置在集群上运行HDFS
// configuration.set("fs.defaultFS", "hdfs://linux121:9000");
// FileSystem fs = FileSystem.get(configuration);
FileSystem fs = FileSystem.get(new URI("hdfs://linux121:9000"),
configuration, "root");
// 2 创建目录
fs.mkdirs(new Path("/lcytest"));
// 3 关闭资源
fs.close();
}
}
- 为了方便运行时日志打印,需要配置log4j.properties
log4j.rootLogger=INFO, stdout
log4j.appender.stdout=org.apache.log4j.ConsoleAppender
log4j.appender.stdout.layout=org.apache.log4j.PatternLayout
log4j.appender.stdout.layout.ConversionPattern=%d %p [%c] - %m%n
log4j.appender.logfile=org.apache.log4j.FileAppender
log4j.appender.logfile.File=target/spring.log
log4j.appender.logfile.layout=org.apache.log4j.PatternLayout
log4j.appender.logfile.layout.ConversionPattern=%d %p [%c] - %m%n
上传文件
@Test
public void testCopyFromLocalFile() throws IOException,
InterruptedException, URISyntaxException {
// 1 获取文件系统
Configuration configuration = new Configuration();
// 指定副本个数
configuration.set("dfs.replication", "2");
FileSystem fs = FileSystem.get(new URI("hdfs://linux121:9000"),
configuration, "root");
// 2 上传文件
fs.copyFromLocalFile(new Path("/Volumes/LCYSSD/个人资料/BigData/3-hadoop/3-1/lcy.txt"), new
Path("/lcy.txt"));
// 3 关闭资源 fs.close();
System.out.println("end");
}
下载文件
@Test
public void testCopyToLocalFile() throws IOException, InterruptedException,
URISyntaxException {
// 1 获取文件系统
Configuration configuration = new Configuration();
FileSystem fs = FileSystem.get(new URI("hdfs://linux121:9000"),
configuration, "root");
// 2 执行下载操作
// boolean delSrc 指是否将原文件删除
// Path src 指要下载的文件路径
// Path dst 指将文件下载到的路径
// boolean useRawLocalFileSystem 是否开启文件校验
fs.copyToLocalFile(false, new Path("/lcy.txt"),
new Path("/Volumes/LCYSSD/个人资料/BigData/3-hadoop/3-1/lcy_copy.txt"), true);
}
删除文件夹/文件
@Test
public void testDelete() throws IOException, InterruptedException,
URISyntaxException {
// 1 获取文件系统@Test
//public void testDelete() throws IOException, InterruptedException,
//URISyntaxException{
//// 1 获取文件系统
//Configuration configuration = new Configuration();
//FileSystem fs = FileSystem.get(new URI("hdfs://linux121:9000"),
//configuration, "root"); // 2 执行删除
// fs.delete(new Path("/api_test/"), true);
//// 3 关闭资源
// fs.close();
//}
Configuration configuration = new Configuration();
FileSystem fs = FileSystem.get(new URI("hdfs://linux121:9000"),
configuration, "root"); // 2 执行删除
fs.delete(new Path("/lcytest/"), true);
// 3 关闭资源
fs.close();
}
查看文件名称、权限、长度、快信息
@Test
public void testListFiles() throws IOException, InterruptedException,
URISyntaxException{
Configuration configuration = new Configuration();
FileSystem fs = FileSystem.get(new URI("hdfs://linux121:9000"),
configuration, "root");
// 2 获取文件详情
RemoteIterator<LocatedFileStatus> listFiles = fs.listFiles(new Path("/"),
true);
while(listFiles.hasNext()){
LocatedFileStatus status = listFiles.next();
// 输出详情
// 文件名称 System.out.println(status.getPath().getName()); // 长度
System.out.println(status.getLen());
// 权限 System.out.println(status.getPermission());
// 分组
System.out.println(status.getGroup());
// 获取存储的块信息
BlockLocation[] blockLocations = status.getBlockLocations();
for (BlockLocation blockLocation : blockLocations) { // 获取块存储的主机节点
String[] hosts = blockLocation.getHosts();
for (String host : hosts) {
System.out.println(host);
} }
System.out.println("-----------华丽的分割线----------"); }
// 3 关闭资源 fs.close();
}
文件夹判断
@Test
public void testListStatus() throws IOException, InterruptedException,
URISyntaxException {
// 1 获取文件配置信息
Configuration configuration = new Configuration();
FileSystem fs = FileSystem.get(new URI("hdfs://linux121:9000"),
configuration, "root");
// 2 判断是文件还是文件夹
FileStatus[] listStatus = fs.listStatus(new Path("/"));
for (FileStatus fileStatus : listStatus) {
// 如果是文件
if (fileStatus.isFile()) {
System.out.println("f:" + fileStatus.getPath().getName());
} else {
System.out.println("d:" + fileStatus.getPath().getName());
}
}
// 3 关闭资源
fs.close();
}
IO流操作
以上我们使用的都是HDFS提供的API擦操作,当然我们也可以自己实现文件的上传和下载。
文件上传
@Test
public void putFileToHDFS() throws IOException, InterruptedException,
URISyntaxException {
// 1 获取文件系统
Configuration configuration = new Configuration();
FileSystem fs = FileSystem.get(new URI("hdfs://linux121:9000"),
configuration, "root"); // 2 创建输入流
FileInputStream fis = new FileInputStream(new File("/Volumes/LCYSSD/个人资料/BigData/3-hadoop/3-1/lcy.txt")); // 3 获取输出流
FSDataOutputStream fos = fs.create(new Path("/lagou_io.txt")); // 4 流对拷
IOUtils.copyBytes(fis, fos, configuration);
// 5 关闭资源
IOUtils.closeStream(fos);
IOUtils.closeStream(fis);
fs.close();
}
文件下载
@Test
public void getFileFromHDFS() throws IOException, InterruptedException, URISyntaxException{
// 1 获取文件系统
Configuration configuration = new Configuration();
FileSystem fs = FileSystem.get(new URI("hdfs://linux121:9000"),
configuration, "root"); // 2 获取输入流
FSDataInputStream fis = fs.open(new Path("/lagou_io.txt"));
// 3 获取输出流
FileOutputStream fos = new FileOutputStream(new
File("/Volumes/LCYSSD/个人资料/BigData/3-hadoop/3-1/lcy_io.txt"));
// 4 流的对拷
IOUtils.copyBytes(fis, fos, configuration);
// 5 关闭资源
IOUtils.closeStream(fos);
IOUtils.closeStream(fis);
fs.close();
}
seek分段读取
@Test
public void readFileSeek2() throws IOException, InterruptedException,
URISyntaxException {
// 1 获取文件系统
Configuration configuration = new Configuration();
FileSystem fs = FileSystem.get(new URI("hdfs://linux121:9000"),
configuration, "root");
// 2 打开输入流,读取数据输出到控制台
FSDataInputStream in = null;
try {
in = fs.open(new Path("/lagou_io.txt"));
IOUtils.copyBytes(in, System.out, 4096, false);
in.seek(0); //从头再次读取
IOUtils.copyBytes(in, System.out, 4096, false);
} finally {
IOUtils.closeStream(in);
}
}