<!--Thu Aug 15 20:47:13 2013-->

 <configuration>

   <property>

   <name>fs.checkpoint.size</name>

   <value>0.5</value>

<!-- 表示一次记录多大的size,默认64M -->

 </property>

     <property>

   <name>dfs.namenode.checkpoint.period</name>

   <value>21600</value>

<!-- checkpoint 检查周期间隔,表示多长时间记录一次hdfs的镜像。默认是1小时。  -->

 </property>

   <property>

   <name>dfs.namenode.checkpoint.dir</name>

   <value>file:///hadoop/hdfs/namesecondary</value>

<!-- 定义hadoop的name备份的路径,官方文档说是读取这个,写入dfs.name.dir -->

 </property>

   <property>

   <name>hadoop.security.authentication</name>

   <value>simple</value>

<!-- hadoop本身的权限验证,非http访问,simple或者kerberos -->

 </property>

   <property>

   <name>fs.checkpoint.edits.dir</name>

   <value>file:///hadoop/hdfs/namesecondary</value>

<!-- 本地文件系统上的DFS secondary name节点存储临时edits文件。默认值是dfs.namenode.checkpoint.dir一样 -->

 </property>

   <property>

   <name>ipc.client.connect.max.retries</name>

   <value>50</value>

<!-- 连接重试最大次数 -->

 </property>

   <property>

   <name>ipc.client.connection.maxidletime</name>

   <value>30000</value>

<!-- 客户端连接的最大空闲时间是 s-->

 </property>

   <property>

   <name>hadoop.security.auth_to_local</name>

   <value>

       RULE:[2:$1@$0]([rn]m@.*)s/.*/yarn/

       RULE:[2:$1@$0](jhs@.*)s/.*/mapred/

       RULE:[2:$1@$0]([nd]n@.*)s/.*/hdfs/

       RULE:[2:$1@$0](hm@.*)s/.*/hbase/

       RULE:[2:$1@$0](rs@.*)s/.*/hbase/

       DEFAULT

   </value>

<!-- kerberos主体映射到本地用户的名字 -->

 </property>

   <property>

   <name>ipc.client.idlethreshold</name>

   <value>8000</value>

<!-- 连接数据最小阀值为 -->

 </property>

   <property>

   <name>io.serializations</name>

   <value>org.apache.hadoop.io.serializer.WritableSerialization</value>

<!-- 序列化的编××× -->

 </property>

   <property>

   <name>fs.trash.interval</name>

   <value>360</value>

<!-- HDFS垃圾箱设置,可以恢复误删除,分钟数,0为禁用,添加该项无需重启hadoop -->

 </property>

   <property>

   <name>hadoop.security.authorization</name>

   <value>false</value>

<!-- Hadoop服务层级验证安全验证,需配合hadoop-policy.xml使用,配置好以后用dfsadmin,mradmin -refreshServiceAcl刷新生效 -->

 </property>

   <property>

   <name>fs.defaultFS</name>

   <value>hdfs://hadoop01:8020</value>

<!-- 指向namenode:host:port -->

 </property>

   <property>

   <name>mapreduce.jobtracker.webinterface.trusted</name>

   <value>false</value>

<!-- 设为true,则JT和NN的tracker网页会出现杀任务删文件等操作连接,默认是false -->

 </property>

   <property>

   <name>io.file.buffer.size</name>

   <value>131072</value>

<!-- 用作序列化文件处理时读写buffer的大小 -->

 </property>

  <property>

   <name>io.compression.codecs</name>

   <value>org.apache.hadoop.io.compress.GzipCodec,org.apache.hadoop.io.compress.DefaultCodec</value>

<!-- Hadoop所使用的编×××,gzip和bzip2为自带,lzo需安装hadoopgpl或者kevinweil,逗号分隔,snappy也需要单独安装 -->

 </property>

 <property>

   <name>io.compression.codecs</name>    

   <value>org.apache.hadoop.io.compress.GzipCodec,org.apache.hadoop.io.compress.DefaultCodec,org.apache.hadoop.io.compress.SnappyCodec</value>

<!-- Hadoop所使用的编×××,gzip和bzip2为自带,lzo需安装hadoopgpl或者kevinweil,逗号分隔,snappy也需要单独安装 -->

 </property>

  <property>

   <name>hadoop.proxyuser.hive.groups</name>

   <value>users</value>

 </property>

   <property>

   <name>hadoop.proxyuser.hcat.groups</name>

   <value>users</value>

 </property>

   <property>

   <name>hadoop.proxyuser.oozie.groups</name>

   <value>users</value>

<!-- -->

 </property>

 </configuration>