1.创建目录
hadoop dfs -mkdir /data
hadoop dfs -mkdir -p /data/data1 创建多级目录
2.查看文件
hadoop dfs -ls /
3.上传文件
hadoop dfs -put /usr/local/data/ /data
4.下载文件 get,将hdfs文件下载到linux本地
hadoop dfs -get /data/data/students.txt 下载到当前目录
5. 复制 cp
hadoop dfs -cp /data/data/students.txt /data
6. 查看文件内容 cat , 如果数据量比较大,不能使用
hadoop dfs -cat /data/data/students.txt
7. 移动 mv, 物理层面文件没有移动,只是改变了元数据(目录结构)
hadoop dfs -mv /data/data/students.txt /
8. 删除文件或者目录 rmr 但其实并没有真正删除,只是一个mv放到了回收站,回收站会自动清理
hadoop dfs -rmr /data/student.txt
etc下的hadoop配置文件中 cat core-site.xml
手动删除回收站
Hadoop dfs -rmr /user/root/.Trash/Current
强制删除,-skipTrash 当需要删除的文件比较大的时候
hadoop dfs -rmr -skipTrash /a
9. 查看文件末尾 tail -f ; 一直等待查看
hadoop dfs -tail /data/data/students.txt
10. 查看文件的大小
hadoop dfs -du -h /data
11.hdfs中的文件都是保存datanode子节点上,在子节点上的位置
usr/local/soft/hadoop-2.7.6/tmp/dfs/data/current/BP-626788496-192.168.163.110-163187979/current/finalized/subdir0/subdir0
12.安全模式(在安全模式不能进行修改操作,可以查看)
hadoop dfsadmin -safemode get 用来查看当前hadoop安全模式的开关状态
hadoop dfsadmin -safemode enter 命令是打开安全模式
hadoop dfsadmin -safemode leave 命令是离开安全模式