05、Spark shell连接到Spark集群执行作业

5.1 Spark shell连接到Spark集群介绍

Spark shell可以连接到Spark集群,spark shell本身也是spark的一个应用,是和Spark集群的一种交互方式。每次action动作的执行,都会对应一个job。

5.2 连接方式指定

#进入Spark bin目录
$>cd /soft/spark/bin

#连接到Spark master的RPC端口
$>spark-shell --master spark://s101:7077

注意:spark://s101:7077地址是在spark webui中显式的Spark master RPC端口,如下图所示:

连接成功,进入如下画面:

5.3 在集群上实现word count

启动spark-shell后,读取hdfs上的文件,实现word count。操作步骤和在local模式下没有本质的不同,除了文件路径指定的是hdfs路径之外,其他部分均是相同的。shell操作如下:

$scala>sc.textFile("hdfs://mycluster/user/centos/1.txt")
	.flatMap(_.split(" "))
	.map((_,1))
	.reduceByKey(_+_)
	.collect

执行之后,运算结果如下图所示:

查看spark webui界面显示结果如下图所示: