Hadoop(二)原理

4.HDFS存储方式

数据存储到服务器的过程

  • 1.数据分块(会把数据按照128m一块进行分块)可配置
<property>
    <name>dfs.blocksize</name>
    <value>块大小 以字节为单位</value><!-- 只写数值就可以 -->
</property>
  • 如果是1k的数据 存储数据的大小就是1k,但是不仅仅需要存储数据,还需要存储元数据的信息()
  • 2.元数据信息存储
  • 3.数据分发
  • 机架感知,负载均衡
  • 数据备份(多分存储)

Hadoop进行数据备份 hadoop数据备份过程_数据

5. HDFS 读写流程
5.1NameNode 和SecondaryNameNode

首先我们需要知道这两个文件,fsimage和edits 文件hadoop元数据存储的全量和增量文件

结构如下图所示:

Hadoop进行数据备份 hadoop数据备份过程_hdfs_02


Hadoop进行数据备份 hadoop数据备份过程_hadoop_03

具体的位置见配置项hdfs-site.xml

<!-- namenode保存fsimage的路径 -->
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>file:///XX/install/hadoop-3.1.4/hadoopDatas/namenodeDatas</value>
    </property>
    <!-- namenode保存editslog的目录 -->
    <property>
        <name>dfs.namenode.edits.dir</name>
        <value>file:///XX/install/hadoop-3.1.4/hadoopDatas/dfs/nn/edits</value>
</property>

接下来详细的看一下NameNode和SecondaryNameNode的架构:

如下图为NameNode和SecondaryNameNode的具体架构。

NameNode元数据内存和持久化

1.首先我们需要知道,NameNode的查询和修改的操作都是要经过内存的。但是因为内存是不安全的,为了保证系统的可用性也需要把元数据存储在磁盘上一份(这其实是大多数框架增加效率 和 维持可用性的方法)。

2.如果只存储一个文件,文件是一直增大的,久而久之,会变成一个巨大的文件。a.读写的效率非常低,b.磁盘损坏恢复数据效率会非常的低。

3.hdfs 选择了 两个文件的存储方式 edits 存储增量的元数据信息,fsimage存储全量的元数据信息。

4.其中edits文件是滚动更新的,每次符合checkPoint操作后都会滚动生成一个新的edits文件进行最新的元数据操作。

SecondaryNameNode checkPoint操作

dfs-default.xml

首先看一下这三个参数:

-参数名称-

-默认配置-

-解释-

dfs.namenode.checkpoint.period

3600s

The number of seconds between two periodic(周期性) checkpoints. Support multiple time unit suffix(case insensitive), as described in dfs.heartbeat.interval.

dfs.namenode.checkpoint.txns

1000000

The Secondary NameNode or CheckpointNode will create a checkpoint of the namespace every ‘dfs.namenode.checkpoint.txns’ transactions, regardless of whether ‘dfs.namenode.checkpoint.period’ has expired.

dfs.namenode.checkpoint.check.period

60s

The SecondaryNameNode and CheckpointNode will poll the NameNode every ‘dfs.namenode.checkpoint.check.period’ seconds to query the number of uncheckpointed transactions. Support multiple time unit suffix(case insensitive), as described in dfs.heartbeat.interval.

1.snn会定期去检测对应的nameNode是否符合checkNode的条件。详细信息如图中所示

2.符合条件,进行checkPoint操作

3.滚动生成一个新的edits_inprogress文件

4.拉取最新的fsimage文件和之前的edits_inprogress文件(Http)

5.加载到内存再生成一个chept文件

6.响应给NameNode 进行下载。

7.下载之后进行重命名,结束。

Hadoop进行数据备份 hadoop数据备份过程_Hadoop进行数据备份_04

namenode元数据信息多目录配置

  • 为了保证元数据的安全性
  • 我们一般都是先确定好我们的磁盘挂载目录,将元数据的磁盘做RAID1 namenode的本地目录可以配置成多个,且每个目录存放内容相同,增加了可靠性。
  • 多个目录间逗号分隔
  • 具体配置如下:
    hdfs-site.xml
<property>
   <name>dfs.namenode.name.dir</name>
   <value>file:///XX/install/hadoop-3.1.4/hadoopDatas/namenodeDatas,file:///path/to/another/</value>
</property>
5.2读流程

如下所示为客户端读取HDFS数据的具体流程

  • 1.DistributedFIlesystem.open()获取InputStream,并且获取到了数据的元数据信息
  • 2.返回FSDataInputStream 对象
  • 3.构造DFSInputStream对象时,调用namenode的getBlockLocations方法,获得file的开始若干block(如下Block1, Block2, Block3)的存储datanode(以下简称dn)列表;针对每个block的dn列表,会根据网络拓扑做排序,离client近的排在前;
  • 4.read数据 按照Block的分片顺序读取数据。
  • 5.调用DFSInputStream的read方法,先读取Block1的数据,与client最近的datanode建立连接,读取数据
  • 6.读取完后,关闭与dn建立的流
  • 7.读取下一个block,如block的数据(重复步骤4、5、6)
  • 8.这一批block读取完后,再读取下一批block的数据(重复3、4、5、6、7)
  • 9、完成文件数据读取后,调用FSDataInputStream的close方法.

Hadoop进行数据备份 hadoop数据备份过程_hadoop_05

5.3 写流程
6.容错
7.其他
7.1小文件治理
7.2优点与缺点

1. hdfs的优点

(1) 高容错性

1) 数据自动保存多个副本。它通过增加副本的形式,提高容错性。

2) 某一个副本丢失以后,它可以自动恢复,这是由 HDFS 内部机制实现的,我们不必关心。

(2) 适合批处理

1) 它是通过移动计算而不是移动数据。

2) 它会把数据位置暴露给计算框架。

(3) 适合大数据处理

1) 数据规模:能够处理数据规模达到 GB、TB、甚至PB级别的数据。

2) 文件规模:能够处理百万规模以上的文件数量,数量相当之大。

3) 节点规模:能够处理10K节点的规模。

(4) 流式数据访问

1) 一次写入,多次读取,不能随机修改,只能追加

2) 它能保证数据的一致性。

(5) 可构建在廉价机器上

1) 它通过多副本机制,提高可靠性。

2) 它提供了容错和恢复机制。比如某一个副本丢失,可以通过其它副本来恢复。

缺点

(1) 不适合低延时数据访问;

1) 比如毫秒级的来存储数据,这是不行的,它做不到。

2) 它适合高吞吐率的场景,就是在某一时间内写入大量的数据。但是它在低延时的情况 下是不行的,比如毫秒级以内读取数据,这样它是很难做到的。

(2) 无法高效的对大量小文件进行存储

1) 存储大量小文件的话,它会占用 NameNode大量的内存来存储文件、目录和块信息。这样是不可取的,因为NameNode的内存总是有限的。

2) 小文件存储的寻道时间会超过读取时间,它违反了HDFS的设计目标。 改进策略

(3) 并发写入、文件随机修改

1) 一个文件只能有一个写,不允许多个线程同时写。

2) 仅支持数据 append(追加),不支持文件的随机修改。

7.3 HDFS安全模式
8.总结