1、-tail
显示文件的末尾,不支持行数
hadoop fs -tail /bigdata/fangfang.txt
hadoop fs -tail -n 5 /bigdata/fangfang.txt(不支持)
但是支持-tail后面写追加。加上-f跟随查看。查看之后不退出
hadoop fs -tail -f /bigdata/fangfang.txt
在开一个连接:
hadoop fs -appendToFile songsong.txt /bigdata/fangfang.txt
-rm删除文件功能
删除目录需要添加-r
-rmdir删除一个空目录(只能删除一个空目录)
先建立一个空目录abc
统计文件夹的大小信息:-du
-h 以更容易阅读的方式(换算单位MB)
-s 代表做一个统计
使用-du 查看/bigdata文件
设置文件的副本数量:-setrep
可以修改,默认是3
改变副本数量,把3改成5:
但是,注意:hdfs真正为/bigdata/fangfang.txt维护的还是三个副本,因为我们只有三个节点,不可能再一个节点维护多个副本。这是写这个没有意义。
以后,动态扩展节点为5个时,发现你设置的副本数是5,那Hadoop会尽可能满足你设置的副本数量。现在设置没有意义。
2、往少了改:之前是三个现在设置成2个
之前的三个分别在102 103 104机器上
现在变成了两个,也就是会随机删除一个,注意是:随机删除
hdfs都是以块为单位去存储数据的
尝试解决web端操作权限问题:
在/opt/module/hadoop-3.1.3/etc/hadoop目录下的core-site.xml文件修改
之后再进行分发这个配置文件
重新启动集群。
如果一个文件被切成了两块,那每一块都需要上传三分。