第二章.HDFS

1.大数据的两个核心技术

hadoop编程题 hadoop课程设计题目_数据

2.HDFS设计目标

hadoop编程题 hadoop课程设计题目_HDFS_02

 

 

 

 

3.HDFS自身的局限性

hadoop编程题 hadoop课程设计题目_客户端_03

4.HDFS采用块设计以及采用块设计的好处

hadoop编程题 hadoop课程设计题目_客户端_04

 

 

 

hadoop编程题 hadoop课程设计题目_HDFS_05

 

 

 

5.HDFS组成架构

hadoop编程题 hadoop课程设计题目_hadoop编程题_06

 

 

 

 

 

 

6.元数据信息被持久化到磁盘分为哪两个文件

hadoop编程题 hadoop课程设计题目_hadoop编程题_07

 

 

 

 

7.第二名称节点的作用

hadoop编程题 hadoop课程设计题目_hadoop编程题_08

 

 

 

 

8.名称节点,数据节点的功能

 

hadoop编程题 hadoop课程设计题目_数据_09

 

 

 

 

NameNode:就是 master,它是一个主管、管理者。

①管理 HDFS 的名称空间

②管理数据块(Block)映射信息

③配置副本策略

④处理客户端读写请求。

 

hadoop编程题 hadoop课程设计题目_数据_10

 

 

DataNode:就是Slave。NameNode 下达命令,DataNode 执行实际的操作。

①存储实际的数据块。

②执行数据块的读/写操作。

 

9.副本机制、数据容错机制、心跳机制、采用什么通信协议

9.1副本机制

hadoop编程题 hadoop课程设计题目_HDFS_11

 

 

 

hadoop编程题 hadoop课程设计题目_hadoop编程题_12

 

 

hadoop编程题 hadoop课程设计题目_HDFS_13

 

 

 

 

9.2数据容错机制

hadoop编程题 hadoop课程设计题目_客户端_14

 

 

待补充

 

 

 

9.3心跳机制

hadoop编程题 hadoop课程设计题目_HDFS_15

 

 

 

 

9.4通信协议

hadoop编程题 hadoop课程设计题目_hadoop编程题_16

 

 

 

 

10.HDFS体系结构的局限性

hadoop编程题 hadoop课程设计题目_HDFS_17

 

 

 

 

 

hadoop编程题 hadoop课程设计题目_客户端_18

 

 

 

11.HDFS读写流程

hadoop编程题 hadoop课程设计题目_hadoop编程题_19

 


 

 

 

 

 

 

1. Client向NameNode发起RPC请求,来确定请求文件block所在的位置;

2. NameNode会视情况返回文件的部分或者全部block列表,对于每个block,NameNode 都

会返回含有该 block 副本的 DataNode 地址; 这些返回的 DN 地址,会按照集群拓扑结构

得出 DataNode 与客户端的距离,然后进行排序,排序两个规则:网络拓扑结构中距离

Client 近的排靠前;心跳机制中超时汇报的 DN 状态为 STALE,这样的排靠后;

3. Client 选取排序靠前的 DataNode 来读取 block,如果客户端本身就是DataNode,那么将从

本地直接获取数据(短路读取特性);

4. 底层上本质是建立 Socket Stream(FSDataInputStream),重复的调用父类

DataInputStream 的 read 方法,直到这个块上的数据读取完毕;

5. 当读完列表的 block 后,若文件读取还没有结束,客户端会继续向NameNode 获取下一

批的 block 列表;

6. 读取完一个 block 都会进行 checksum 验证,如果读取 DataNode 时出现错误,客户端会

通知 NameNode,然后再从下一个拥有该 block 副本的DataNode 继续读。

7. read 方法是并行的读取 block 信息,不是一块一块的读取;NameNode 只是返回Client请

求包含块的DataNode地址,并不是返回请求块的数据;

8. 最终读取来所有的 block 会合并成一个完整的最终文件。

hadoop编程题 hadoop课程设计题目_客户端_20

1. Client 发起文件上传请求, 通过 RPC 与 NameNode 建立通讯, NameNode 检查目标文件是

否已存在, 父目录是否存在, 返回是否可以上传

2. Client 请求第一个 block 该传输到哪些 DataNode 服务器上

3. NameNode 根据配置文件中指定的备份数量及机架感知原理进行文件分配, 返回可用的

DataNode 的地址如: A, B, C

Hadoop 在设计时考虑到数据的安全与高效, 数据文件默认在 HDFS 上存放三份, 存储

策略为本地一份, 同机架内其它某一节点上一份, 不同机架的某一节点上一份。

4. Client 请求 3 台 DataNode 中的一台 A 上传数据(本质上是一个 RPC 调用,建立 pipeline

), A 收到请求会继续调用 B, 然后 B 调用 C, 将整个 pipeline 建立完成, 后逐级返回 client

5. Client 开始往 A 上传第一个 block(先从磁盘读取数据放到一个本地内存缓存), 以

packet 为单位(默认64K), A 收到一个 packet 就会传给 B, B 传给 C. A 每传一个 packet 会

放入一个应答队列等待应答

6. 数据被分割成一个个 packet 数据包在 pipeline 上依次传输, 在 pipeline 反方向上, 逐个发

送 ack(命令正确应答), 最终由 pipeline 中第一个 DataNode 节点 A 将 pipelineack 发送

给 Client

7. 当一个 block 传输完成之后, Client 再次请求 NameNode 上传第二个 block 到服务