以下是我上hadoop课程时由老师提供的习题集(利用Hadoop提供的shell命令完成任务):
一、将HDFS中指定文件的内容输出到终端中;
二、显示HDFS中指定的文件的读写权限、大小、创建时间、路径等信息;
三、给定HDFS中某一个目录,输出该目录下的所有文件的读写权限、大小、创建时间、路径等信息,如果该文件是目录,则递归输出该目录下所有文件相关信息;
“ hadoop fs -ls -R ” :对子目录也进行ls操作,就是递归输出信息*
四、删除HDFS中指定的文件;
五、删除HDFS中指定的目录,由用户指定目录中如果存在文件时是否删除目录;
六、向HDFS中上传任意文本文件,如果指定的文件在HDFS中已经存在,由用户指定是追加到原有文件末尾还是覆盖原有的文件;
1. 在本地/root/tmp里创建了文件a.txt,内容如下图:
2. 编写shell脚本并上传文件a.txt到hdfs上/tmp/a.txt,因为最开始上面并没有a.txt,所以就进行了上传并覆盖(添加),如下图:
七、从HDFS中下载指定文件,如果本地文件与要下载的文件名称相同,则自动对下载的文件重命名;
1. 写个脚本myfile(path:/root/tmp/myfile.sh),echo “yes”or“no”可以看作一个标签,执行到哪里就就输出相应的标签;本人更认可创建脚本文件编写脚本程序,在这里最大的好处是对脚本代码的维护修改起到了很大的作用,如上第一题在命令行输入脚本指令一按回车后需要修改代码就特别不方便了,特别是指令多而繁琐的时候,如下图:
2. 执行脚本myfile文件并查看,结果如下:
八、提供一个HDFS内的文件的路径,对该文件进行创建和删除操作。如果文件所在目录不存在,则自动创建目录;
1. 编写脚本hacker.sh,内容如下:
2. 执行结果如下:
九、提供一个HDFS的目录的路径,对该目录进行创建和删除操作。创建目录时,如果目录文件所在目录不存在则自动创建相应目录;删除目录时,由用户指定当该目录不为空时是否还删除该目录;
1.编写一个dream.sh的脚本文件,内容如下:
2.执行脚本文件后结果如下:
十、向HDFS中指定的文件追加内容,由用户指定内容追加到原有文件的开头或结尾;
1.追加到结尾:
2.追加到开头:
十一、运行官方提供的wordcount(统计词频)的例子,要求通过HDFS创建/abc作为输入目录,从本地上传a.txt文件到/abc目录下,其中a.txt内容自己定义。然后执行mapreduce程序;
1.Jar包的路径(下面hadoop-mapreduce-examples-2.7.7.jar是我们这里所需要的):
2.创建/abc目录并上传a.txt文件:
3.执行jar-wordcount的过程:
4.字段统计结果: