1.启动集群

cd/$HADOOP_HOME 切换到hadoop
sbin/start-dfs.sh    启动hfds
sbin/start-yarn.sh  启动yarn

2.从宿主机上传到本地机(master)【用xshell上传】

查看集群运行状态

http://192.168.56.110:50070/查看集群的目录结构
http://192.168.56.110:50070/explorer.html#/

3.上传文件

案例:

dadoop fs -copyFromLocal 要上传的文件  文件路径
hadoop fs -put wort.txt(要上传的文件) /user/root/word1.txt  (路径)上传的文件可以修改名字【重要】
hadoop fs -moveFromLacal   wort.txt(要上传的文件) /user/root/word1.txt  (路径)上传的文件可以重命名

4.下载文件

hadoop fs -copyToLocal  /本地文件的路径/本地文件
hadoop fs -copyToLocal /user/root/word.txt  当前目录
Hadoop fs -moveToLocal /本地文件路径/本地文件
hadoop fs  -get  /本地文件的路径/本地文件【重要】

5.查看内容

hadoop fs -cat hdfs://文件路径(输出文件内容)
hadoop fs -head (查看前几行)
hadoop fs -tail  /文件路径(显

6.删除文件

hadoop fs -rm /文件路径