1.启动集群
cd/$HADOOP_HOME 切换到hadoop
sbin/start-dfs.sh 启动hfds
sbin/start-yarn.sh 启动yarn
2.从宿主机上传到本地机(master)【用xshell上传】
查看集群运行状态
http://192.168.56.110:50070/查看集群的目录结构
http://192.168.56.110:50070/explorer.html#/
3.上传文件
案例:
dadoop fs -copyFromLocal 要上传的文件 文件路径
hadoop fs -put wort.txt(要上传的文件) /user/root/word1.txt (路径)上传的文件可以修改名字【重要】
hadoop fs -moveFromLacal wort.txt(要上传的文件) /user/root/word1.txt (路径)上传的文件可以重命名
4.下载文件
hadoop fs -copyToLocal /本地文件的路径/本地文件
hadoop fs -copyToLocal /user/root/word.txt 当前目录
Hadoop fs -moveToLocal /本地文件路径/本地文件
hadoop fs -get /本地文件的路径/本地文件【重要】
5.查看内容
hadoop fs -cat hdfs://文件路径(输出文件内容)
hadoop fs -head (查看前几行)
hadoop fs -tail /文件路径(显
6.删除文件
hadoop fs -rm /文件路径