1、-tail

显示文件的末尾,不支持行数

hadoop fs -tail /bigdata/fangfang.txt

hadoop学习之shell命令操作操作hdfs_hadoop


hadoop学习之shell命令操作操作hdfs_hdfs_02


hadoop学习之shell命令操作操作hdfs_web端_03


hadoop fs -tail -n 5 /bigdata/fangfang.txt(不支持)

hadoop学习之shell命令操作操作hdfs_hdfs_04


但是支持-tail后面写追加。加上-f跟随查看。查看之后不退出

hadoop fs -tail -f /bigdata/fangfang.txt

hadoop学习之shell命令操作操作hdfs_hadoop_05


在开一个连接:

hadoop学习之shell命令操作操作hdfs_hadoop_06


hadoop fs -appendToFile songsong.txt /bigdata/fangfang.txt

hadoop学习之shell命令操作操作hdfs_hdfs_07


hadoop学习之shell命令操作操作hdfs_web端_08


-rm删除文件功能

hadoop学习之shell命令操作操作hdfs_hdfs_09


删除目录需要添加-r

hadoop学习之shell命令操作操作hdfs_web端_10


hadoop学习之shell命令操作操作hdfs_hadoop_11


-rmdir删除一个空目录(只能删除一个空目录)

先建立一个空目录abc

hadoop学习之shell命令操作操作hdfs_web端_12


hadoop学习之shell命令操作操作hdfs_hadoop_13


统计文件夹的大小信息:-du

-h 以更容易阅读的方式(换算单位MB)

-s 代表做一个统计

使用-du 查看/bigdata文件

hadoop学习之shell命令操作操作hdfs_hadoop_14


hadoop学习之shell命令操作操作hdfs_hadoop_15


设置文件的副本数量:-setrep

可以修改,默认是3

改变副本数量,把3改成5:

hadoop学习之shell命令操作操作hdfs_web端_16


hadoop学习之shell命令操作操作hdfs_web端_17


hadoop学习之shell命令操作操作hdfs_hadoop_18


但是,注意:hdfs真正为/bigdata/fangfang.txt维护的还是三个副本,因为我们只有三个节点,不可能再一个节点维护多个副本。这是写这个没有意义。

以后,动态扩展节点为5个时,发现你设置的副本数是5,那Hadoop会尽可能满足你设置的副本数量。现在设置没有意义。

2、往少了改:之前是三个现在设置成2个

hadoop学习之shell命令操作操作hdfs_hdfs_19


之前的三个分别在102 103 104机器上

hadoop学习之shell命令操作操作hdfs_web端_20


现在变成了两个,也就是会随机删除一个,注意是:随机删除

hadoop学习之shell命令操作操作hdfs_web端_21


hadoop学习之shell命令操作操作hdfs_web端_22


hadoop学习之shell命令操作操作hdfs_web端_23


hdfs都是以块为单位去存储数据的

hadoop学习之shell命令操作操作hdfs_hdfs_24


尝试解决web端操作权限问题:

hadoop学习之shell命令操作操作hdfs_web端_25


在/opt/module/hadoop-3.1.3/etc/hadoop目录下的core-site.xml文件修改

hadoop学习之shell命令操作操作hdfs_hadoop_26

hadoop学习之shell命令操作操作hdfs_hadoop_27


之后再进行分发这个配置文件

重新启动集群。

如果一个文件被切成了两块,那每一块都需要上传三分。