第2期Spark纯实战公益大讲坛:通过案例实战掌握Spark编程模型内幕
运行spark代码:
应用于广告点击排名
1、sc :spark shell运行的上下文
2、textFile("hdfs://...") 从hadoop hdfs中读取文件
3、faltMap(_.split("")) 将字符串以空格拆分
4、map(_,1) 统计单词计数
5、reduceByKey(_+_). 汇总累计
6. map(x=>(x._2),x._1)). 交换对偶对,次数在前,按单词出现次数排序
7、sortByKey(false). 按x._2排序 false是降序
8、map(x=>(x._2),x._1)). 再次交换对偶次序,单词在前
9、saveASTextFile(hdfs://...") 保存在hadoop hdfs文件中
为何有job0 运行?因为里面用到了RangePartitioner
DT大数据微信公众账号:DT_Spark
DT大数据梦工厂scala的所有视频、PPT和代码在百度云盘的链接地址:http://pan.baidu.com/share/home?uk=4013289088&view=share#category/type=0&qq-pf-to=pcqq.group