HDFS文件系统 命令行操作
- 一、HDFS概念
- 二、HFDS命令行操作
- 1、基本语法
- 2、HDFS参数大全
- 3、HDFS常用命令实操
一、HDFS概念
HDFS,它是一个文件系统,用于存储文件,通过目录树来定位文件;其次,它是分布式的,由很多服务器联合起来实现其功能,集群中的服务器有各自的角色。
HDFS的设计适合一次写入,多次读出的场景,且不支持文件的修改。适合用来做数据分析,并不适合用来做网盘应用。
组成:
1)HDFS集群包括,NameNode和DataNode以及Secondary Namenode。
2)NameNode负责管理整个文件系统的元数据,以及每一个路径(文件)所对应的数据块信息。
3)DataNode 负责管理用户的文件数据块,每一个数据块都可以在多个datanode上存储多个副本。
4)Secondary NameNode用来监控HDFS状态的辅助后台程序,每隔一段时间获取HDFS元数据的快照。
HDFS 文件块大小
二、HFDS命令行操作
1、基本语法
[victor@node1 hadoop-2.8.2]$ bin/hadoop fs 具体命令
或者
[victor@node1 hadoop-2.8.2]$ bin/hdfs dfs 具体命令
2、HDFS参数大全
[victor@node1 hadoop-2.8.2]$ bin/hadoop fs
3、HDFS常用命令实操
1)-help
输出这个命令参数
[victor@node1 hadoop-2.8.2]$ bin/hdfs dfs -help rm
2)-ls
显示目录信息
[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -ls /
3)-mkdir
在hdfs上创建目录
[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -mkdir -p /aaa/bbb/cc/dd
4)-moveFromLocal
从本地剪切粘贴到hdfs
[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -moveFromLocal /home/hadoop/a.txt /aaa/bbb/cc/dd
5)-moveToLocal
从hdfs剪切粘贴到本地(没有实现)
[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -help moveToLocal
-moveToLocal <src> <localdst> :
Not implemented yet
6)-appendToFile
追加一个文件到已经存在的文件末尾
[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -appendToFile ./hello.txt /hello.txt
7)-cat
显示文件内容
[alex@hadoop103 hadoop-2.7.2]$ bin/hadoop fs -cat /a.txt
8)-tail
显示一个文件的末尾
[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -tail /weblog/access_log.1
9)-chgrp 、-chmod、-chownlinux
文件系统中的用法一样,修改文件所属权限
[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -chmod 666 /hello.txt
[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -chown someuser:somegrp /hello.txt
10)-copyFromLocal
从本地文件系统中拷贝文件到hdfs路径去
[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -copyFromLocal ./jdk.tar.gz /aaa/
11)-copyToLocal
从hdfs拷贝到本地
[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -copyToLocal /user/hello.txt ./hello.txt
12)-cp
从hdfs的一个路径拷贝到hdfs的另一个路径
[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -cp /aaa/jdk.tar.gz /bbb/jdk.tar.gz.2
13)-mv
在hdfs目录中移动文件
[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -mv /aaa/jdk.tar.gz-入门 /
14)-get
等同于copyToLocal,就是从hdfs下载文件到本地
[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -get /user/hello.txt ./
15)-getmerge
合并下载多个文件,比如hdfs的目录 /aaa/下有多个文件:log.1, log.2,log.3,…
[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -getmerge /aaa/log.* ./log.sum
16)-put
等同于copyFromLocal
[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -put /aaa/jdk.tar.gz /
17)-rm
删除文件或文件夹
[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -rm -r /aaa/bbb/
18)-rmdir
删除空目录
[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -rmdir /aaa/bbb/ccc
19)-df
统计文件系统的可用空间信息
[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -df -h /
20)-du
统计文件夹的大小信息
[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -du -s -h /user
21)-count
统计一个指定目录下的文件节点数量
[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -count /user
22)-setrep
设置hdfs中文件的副本数量
[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -setrep 3 /aaa/jdk.tar.gz
尖叫提示:这里设置的副本数只是记录在namenode的元数据中,是否真的会有这么多副本,还得看datanode的数量。假设设置副本数为3,datanode节点数为2,最多2个副本,当datanode节点数为10,最多副本数为3
23)hdfs
离开安全模式
[victor@node1 hadoop-2.8.2]$ bin/hadoop dfsadmin -safemode leave
24)hadoop kill掉 yarn任务
[victor@node1 hadoop-2.8.2]$ bin/hadoop job -kill job_1526884826758_0015
25)设置上传块大小
方式一
[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -conf ./hdfs-site.xml -put ./kn /spider/seeds/
方式二
[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -D dfs.blocksize=5242880 -put ./km /spider/seeds/
26)手动设置hdfs副本数量
[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -setrep -R 1/
27)刷新namenode
[victor@node1 hadoop-2.8.2]$ bin/hdfs dfsadmin -refreshNodes
28)刷新resourcemanager
[victor@node1 hadoop-2.8.2]$ bin/yarn rmadmin -refreshNodes