HDFS Federation

 

 

为了水平扩展命名服务的规模,federation 使用多个Namenode和命名空间代替过去的单个Namenode的模式。多个Namenode被联合在一起提供服务,但是每个Namenode又是独立的,且每个Namenode不需要与其他Namenode协调工作。而Datenode的存储方式还是和过去一样使用块来存储,但每个Datenode需要注册到集群中所有的Namenode上。Datanode周期性的发布心跳、块操作的报告和从Namenode发送来的操作命令的响应。

 

背景

HDFS包括两个层次:

        1.Namespace

                  包括目录、文件和blocks

                  HDFS支持所有与namespace相关的操作,包括增删查改,列出文件和目录等操作。

        2.块(block)存储,也包括两个方面

                   块的管理(哪些已经在namenode上记录了)

                         HDFS通过注册和心跳机制为hadoop提供一个datanode群组

                         处理从datanode上传的块报告,并维护本地的块信息

                         提供针对块的操作,例如增删查改和定位一个块的位置。

                         管理备份的布局,拷贝要备份的块,删除已经备份的块。

                   存储 -  由datanode提供用来存储块在每个datanode本地文件系统,并且控制读和写的访问权限。

 

目前的HDFS架构只支持一个集群一个namenode,一个单独的namenode管理namespace。HDFS Federation 对现有架构进行修改,一个HDFS系统支持多个namenode。

 

HDFS Federation

 

Block Pool

Datanode为每个block pool存储所有块。block pool相对于其他block pool来说是独立存在的,相互之间没有影响。这样就允许一个namespace为新生成的块创建Block  ID而不需要与其他namespace沟通协调。一个namenode挂掉并不会影响集群中datanode为其他namenode提供服务。

Namespace Volume。它是一个自给自足的独立系统。当一个Namenode/namespace被删除,在集群全部datanode上与之相关的block pool 将被一起删除。在集群升级的时候每个namespace volume 可以单独的升级。

 

ClusterID

ClusterID 被创建,用来识别集群中的每个节点。当一个namenode被格式化,可以手工提供或自动创建一个ClusterID。这个ID可能在集群中其他namenode格式化的时候被用到。

 

核心利益

 

  • Namespace 扩展性 - HDFS集群存储可以水平的扩展,但是namespace不行。通过增加在集群中的namenode数量来扩展namespace有利于大量的调度任务或者调度大量的小文件。
  • 性能 - 文件系统的吞吐量普遍收到单个namenode的制约。为集群增加namenode增加了文件系统的读写操作的吞吐量。
  • 隔离性 - 单namenode在多用户环境中没有隔离性可言。一个实验性的项目可以使namenode满负荷运行,从而降低生产环境下得项目的速度。使用多namenode后,不同类别的用户和项目通过不同的namespace被隔离。

Federation配置



      Federation配置是向后兼容的,所以你还是可以只配置一个namenode工作而无需做任何配置上的修改。新的配置文件被巧妙的设计后,我们可以在全部的集群节点中只使用一种配置文件而不用管哪些节点是什么类型。


NameServiceID。一个namenode和它对应的 secondary / backup  /  checkpointer节点都属于同一个 NameServiceID secondary / backup / checkpointer的配置参数都要加上 NameServiceID



配置步骤


dfs.federation.nameservices :用逗号分隔 NameServiceID。这些 NameServiceID将被datanode用来判断在集群中的namenode。


Secondary Namenode/BackupNode/Checkpointer 增加以 NameServiceID开头的参数值。




Daemon

Configuration Parameter

Namenode

dfs.namenode.rpc-address dfs.namenode.servicerpc-address dfs.namenode.http-address dfs.namenode.https-address dfs.namenode.keytab.filedfs.namenode.name.dir dfs.namenode.edits.dir dfs.namenode.checkpoint.dir dfs.namenode.checkpoint.edits.dir

Secondary Namenode

dfs.namenode.secondary.http-address dfs.secondary.namenode.keytab.file

BackupNode

dfs.namenode.backup.address dfs.secondary.namenode.keytab.file



以下是一份参考配置文件:


<configuration>
  <property>
    <name>dfs.federation.nameservices</name>
    <value>ns1,ns2</value>
  </property>
  <property>
    <name>dfs.namenode.rpc-address.ns1</name>
    <value>hdfs://nn-host1:rpc-port</value>
  </property>
  <property>
    <name>dfs.namenode.http-address.ns1</name>
    <value>nn-host1:http-port</value>
  </property>
  <property>
    <name>dfs.namenode.secondaryhttp-address.ns1</name>
    <value>snn-host1:http-port</value>
  </property>
  <property>
    <name>dfs.namenode.rpc-address.ns2</name>
    <value>hdfs://nn-host2:rpc-port</value>
  </property>
  <property>
    <name>dfs.namenode.http-address.ns2</name>
    <value>nn-host2:http-port</value>
  </property>
  <property>
    <name>dfs.namenode.secondaryhttp-address.ns2</name>
    <value>snn-host2:http-port</value>
  </property>

  .... Other common configuration ...
</configuration>


格式化namenode


1.使用如下命令格式化namenode:


> $HADOOP_PREFIX_HOME/bin/hdfs namenode -format [-clusterId <cluster_id>]


cluster_id,如果没有指定,则会自动生成一个唯一ID


2.格式化与namenode关联的东西:


> $HADOOP_PREFIX_HOME/bin/hdfs namenode -format -clusterId <cluster_id>


cluster_id 必须与第一步的相同。如果不一致会造成namenode与它的附属物在 federated集群中不一致。



关于升级到0.23和配置federation:


federation:


ClusterID :



> $HADOOP_PREFIX_HOME/bin/hdfs start namenode --config $HADOOP_CONF_DIR  -upgrade -clusterId <cluster_ID>



ClusterID 没有指定,则会自动创建一个。



在已有HDFS系统中增加一个namenode:


使用如下步骤:


dfs.federation.nameservices参数


NameServiceID 前缀更新以上参数值。配置参数从0.20发布版以后已经改变了。你必须为 federation提供一个新的参数名。


3.增加与namenode有关的配置项。


4.同步配置文件到集群中所有节点。


Namenode,Secondary/Backup。


6.使用如下命令刷新datanode去获取新加入的namenode:


> $HADOOP_PREFIX_HOME/bin/hdfs dfadmin -refreshNameNode <datanode_host_name>:<datanode_rpc_port>


7.在所有datanode机器上使用上面的命令。



管理集群


使用如下命令启动集群:


> $HADOOP_PREFIX_HOME/bin/start-dfs.sh


使用如下命令停止集群:


> $HADOOP_PREFIX_HOME/bin/stop-dfs.sh


这两个命令可以在集群中所有机器上使用。命令会根据配置文件指定的namenode去启动namenode处理其他的节点。在slaves指定的datanode 会被启动。你可以参考这两个脚本编写自己的启动和停止集群的脚本。


Balancer


Balancer 已经发生了改变去适应多namenode的架构来 均衡 集群数据。 Balancer 可以使用如下命令启动:


"$HADOOP_PREFIX"/bin/hadoop-daemon.sh --config $HADOOP_CONF_DIR --script "$bin"/hdfs start balancer [-policy <policy>]


平衡策略如下:


  • node
  • blockpool - 在block pool层次来均衡存储。在blockpool 层次均衡存储和在datanode层面均衡存储都要做。

注意均衡只均衡数据,而不会均衡namespace。




Decommissioning


exclude file中。每个namenode会卸载自己拥有的block pool。当所有namenode完成了datanode的卸载工作后datanode才被认为是卸载成功的。


exclude file:


"$HADOOP_PREFIX"/bin/distributed-exclude.sh <exclude_file>


exclude file:


"$HADOOP_PREFIX"/bin/refresh-namenodes.sh


exclude file。



集群网页控制台:



federation 中去监视联合集群,通过URL:



任何namenode都可以通过以上格式的URL访问到。


这个网页提供了如下信息:


  • 集群概要:文件数,块数,整个存储容量,集群中可用和已用的存储空间。
  • 列出所有namenode和它们包含的文件数、块数、丢失的块数,每个namenode包含的正常和挂掉的datanode数量。还提供一个链接快速的访问到每个namenode节点。
  • 也提供被卸载的datanode的状态