文件的数据类型

文件有一个stat命令

  • 元数据信息-->描述文件的属性

文件有一个vim命令

  • 查看文件的数据信息

分类

  • 元数据
File	文件名
Size	文件大小(字节) 
Blocks		文件使用的数据块总数 
IO Block		数据块的大小
regular file:文件类型(常规文件) 
Device 设备编号
Inode 文件所在的Inode 
Links 硬链接次数 
Access 权限
Uid 属主id/用户
Gid 属组id/组名
Access Time:简写为atime,表示文件的访问时间。当文件内容被访问时,更新这个时间
Modify Time:简写为mtime,表示文件内容的修改时间,当文件的数据内容被修改时,更新这个时间。
Change Time:简写为ctime,表示文件的状态时间,当文件的状态被修改时,更新这个时间,例如文件的链接数,大小,权限,Blocks数。




hadoop 查看logs hadoop 查看文件创建时间_hadoop


文件数据

  • 真实存在于文件中的数据

NameNode(NN)


hadoop 查看logs hadoop 查看文件创建时间_数据_02


功能#

接受客户端的读写服务

  • NameNode存放文件与Block的映射关系
  • DataNode存放Block与DataNode的映射关系


hadoop 查看logs hadoop 查看文件创建时间_hadoop_03


保存文件的元数据信息

  • 文件的归属
  • 文件的权限
  • 文件的大小时间
  • lock信息,但是block的位置信息不会持久化,需要每次开启集群的时候DN上报


hadoop 查看logs hadoop 查看文件创建时间_Powered by 金山文档_04


收集Block的信息

  • 系统启动时
  • NN关机的时候是不会存储任意的Block与DN的映射信息
  • DN启动的时候,会将自己节点上存储的Block信息汇报给NN
  • NN接受请求之后重新生成映射关系
  • Block--DN3
  • 如果某个数据块的副本数小于设置数,那么NN会将这个副本拷贝到其他节点
  • 集群运行中
  • NN与DN保持心跳机制,三秒钟发送一次
<property>
	<description>Determines datanode heartbeat interval in seconds.</description>
	<name>dfs.heartbeat.interval</name>
	<value>3</value></property><property>
	<name>heartbeat.recheck.interval</name>
	<value>300000</value></property>
  • 如果客户端需要读取或者上传数据的时候,NN可以知道DN的健康情况
  • 可以让客户端读取存活的DN节点
  • 如果DN超过三秒没有心跳,就认为DN出现异常
-	不会让新的数据读写到DataNode
-	客户访问的时候不提供异常结点的地址
  • 如果DN超过10分钟+30秒没有心跳,那么NN会将当前DN存储的数据转存到其他节点
  • 超时时长的计算公式为:

timeout = 2 * heartbeat.recheck.interval + 10 * dfs.heartbeat.interval。

而默认的heartbeat.recheck.interval 大小为5分钟,dfs.heartbeat.interval默认为3秒。

性能#

NameNode为了效率,将所有的操作都在内存中完成

  • NameNode不会和磁盘进行任何的数据交换
  • 问题:
  • 数据的持久化
  • 数据保存在内存中,掉电易失

DataNode(DN)

功能#

存放的是文件的数据信息和验证文件完整性的校验信息

  • 数据会存放在硬盘上
  • 1m=1条元数据 1G=1条元数据
  • NameNode非常排斥存储小文件,一般小文件在存储之前需要进行压缩

汇报

  • 启动时
  • 汇报之前先验证Block文件是否被损坏
  • 向NN汇报当前DN上block的信息
  • 运行中
  • 向NN保持心跳机制
  • 客户可以向DN读写数据
  • 当客户端读写数据的时候,首先去NN查询file与block与dn的映射
  • 然后客户端直接与dn建立连接,然后读写数据

SecondaryNameNode

传统解决方案#

日志机制

  • 做任何操作之前先记录日志
  • 当NN下次启动的时候,只需要重新按照以前的日志“重做”一遍即可缺点
  • 缺点
  • edits文件大小不可控,随着时间的发展,集群启动的时间会越来越长
  • 有可能日志中存在大量的无效日志
  • 优点
  • 绝对不会丢失数据

拍摄快照

我们可以将内存中的数据写出到硬盘上

  • 序列化

启动时还可以将硬盘上的数据写回到内存中

  • 反序列化

缺点

  • 关机时间过长
  • 如果是异常关机,数据还在内存中,没法写入到硬盘
  • 如果写出频率过高,导致内存使用效率低(stop the world) JVM

优点

  • 启动时间较短

SNN解决方案#

解决思路(日志edits+快照fsimage)

让日志大小可控

  • 定时快照保存

NameNode文件目录

  • 查看目录


hadoop 查看logs hadoop 查看文件创建时间_数据_05


解决方案

当我们启动一个集群的时候,会产生四个文件

  • edits_0000000000000000001
  • fsimage_00000000000000000
  • seen_txid
  • VERSION

我们每次操作都会记录日志 -->edits_inprogress-000000001

随和时间的推移,日志文件会越来越大,当达到阈值的时候(64M 或 3600秒)

dfs.namenode.checkpoint.period	每隔多久做一次checkpoint ,默认3600s
dfs.namenode.checkpoint.txns	每隔多少操作次数做一次checkpoint,默认1000000次
fs.namenode.checkpoint.check.period	每个多久检查一次操作次数,默认60s

会生成新的日志文件

  • edits_inprogress-000000001 -->edits_0000001
  • 创建新的日志文件edits_inprogress-0000000016


hadoop 查看logs hadoop 查看文件创建时间_数据_06


节点的分类与作用汇总图


hadoop 查看logs hadoop 查看文件创建时间_Powered by 金山文档_07


作者:Hovey