刚刚测试Hadoop程序,一不小心把数据删掉了~~~好在是在测试机上,不然就蛋痛了,还是设置一下hadoop的回收站,以防万一
首先:
Hadoop回收站trash,默认是关闭的。
习惯了window的同学,建议最好还是把它提前开开,否则误操作的时候,就欲哭无泪了

1.修改conf/core-site.xml,增加
Xml代码  

Xml代码  

1. <property>    
2. <name>fs.trash.interval</name>    
3. <value>1440</value>    
4. <description>Number of minutes between trash checkpoints.    
5.   If zero, the trash feature is disabled.    
6. </description>    
7. </property>


默认是0.单位分钟。这里我设置的是1天(60*24)
删除数据rm后,会将数据move到当前文件夹下的.Trash目录

2.测试
1)新建目录input 

Java代码  

1. hadoop/bin/hadoop fs -mkdir input



2)上传文件

Java代码  

1. root@master:/data/soft# hadoop/bin/hadoop fs -copyFromLocal /data/soft/file0* input



3)删除目录input

Java代码  

1. [root@master data]# hadoop fs -rmr input    
2. Moved to trash: hdfs://master:9000/user/root/input



4)参看当前目录

Java代码  

1. [root@master data]# hadoop fs -ls    
2. Found 2 items    
3. drwxr-xr-x   - root supergroup          0 2011-02-12 22:17 /user/root/.Trash


发现input删除,多了一个目录.Trash

5)恢复刚刚删除的目录

Java代码  

1. [root@master data]# hadoop fs -mv /user/root/.Trash/Current/user/root/input  /user/root/input



6)检查恢复的数据
Java代码  

Java代码  

1. [root@master data]# hadoop fs -ls input    
2. Found 2 items    
3. -rw-r--r--   3 root supergroup         22 2011-02-12 17:40 /user/root/input/file01    
4. -rw-r--r--   3 root supergroup         28 2011-02-12 17:40 /user/root/input/file02



6)删除.Trash目录(清理垃圾)

Java代码  

1. [root@master data]# hadoop fs -rmr .Trash    
2. Deleted hdfs://master:9000/user/root/.Trash

空间的回收

文件删除与恢复-用户或者应用删除某个文件,这个文件并没有立刻从HDFS中删除。相反,HDFS将这个文件重命名,并转移到/trash目录。当文件还在/trash目录时,该文件可以被迅速地恢复。文件在/trash中保存的时间是可配置的,当超过这个时间,Namenode就会将该文件从namespace中删除。文件的删除,也将释放关联该文件的数据块。注意到,在文件被用户删除和HDFS空闲空间的增加之间会有一个等待时间延迟。
当被删除的文件还保留在/trash目录中的时候,如果用户想恢复这个文件,可以检索浏览/trash目录并检索该文件。/trash目录仅仅保存被删除文件的最近一次拷贝。/trash目录与其他文件目录没有什么不同,除了一点:HDFS在该目录上应用了一个特殊的策略来自动删除文件,目前的默认策略是删除保留超过6小时的文件,这个策略以后会定义成可配置的接口。