pyspark groupBy方法中用到的知识点
- 智能搜索引擎 实战中用到的pyspark知识点总结
- sum和udf方法计算平均得分
- avg方法计算平均得分
- count方法计算资源个数
- collect_list() 将groupBy 的数据处理成列表
- max取最大值min取最小值
- 多条件groupBy求和sum
智能搜索引擎 实战中用到的pyspark知识点总结
项目中,先配置了spark,通过spark对象连接到hive数据库,在 hive数据库中以dataframe的形式获取数据,使用pyspark的dataframe的相关方法操作数据,最后将整理好的数据写入hive表存入数据库,该篇介绍项目中使用到的groupBy,agg的相关方法。
sum和udf方法计算平均得分
数据介绍:主播表,一个主播有很多直播课,每个直播课都有一个总评分和评分人数,现要计算出该主播的平均得分。
思路:单个主播的所有的直播课的分数全部加起来,除以所有直播课的共同的评分人数。
from pyspark.sql.types import DoubleType
from pyspark.sql.functions import udf
def Spark():
"""
spark配置类
"""
sp = Spark()
spark = sp.spark
df = spark.sql("select anchor_id,live_score,live_comment_count from table_anchor")
df = df.groupBy('anchor_id')
.agg({"live_score": "sum", "live_comment_count": "sum"})
.withColumnRenamed("sum(live_score)", "total_score")
.withColumnRenamed("sum(live_comment_count)", "total_people")
现在就获得了两列 总分数和总人数
使用udf方法自定义函数即可求的平均分
def avg_score(score,people):
try:
if int(people) != 0:
return int(score)/int(people)
else:
return 0
except:
return 0
func = udf(avg_score,DoubleType())
df = df.withColumn("score", func(df.total_score,df.total_people))
df = df.select("anchor_id","score") # 选择ID和分数两列即可存表
avg方法计算平均得分
数据介绍:有一个课程评分的记录表,表项为课程ID,用户ID,该用户对课程的评分,现计算该课程的平均评分
思路:使用 avg方法直接计算。
df = spark.sql("select course_id,score from table_course")
df = df.groupBy("course_id")
.agg({"score": "avg"})
.withColumnRenamed("avg(score)", "avg_score")
df = df.select("course_id","avg_score")
获取course_id 和avg_score 之后即可存表 注:spark为上一节中spark
count方法计算资源个数
数据介绍:有一个课程评分的记录表,表项为课程ID,用户ID,该用户对课程的评论,现计算该课程有多少人评论
df = spark.sql("select course_id,comment from table_course")
df = df.groupBy("course_id")
.agg({"comment": "count"})
.withColumnRenamed("count(comment)", "comment_count")
df = df.select("course_id","comment_count")
获取course_id 和comment_count 之后即可存表 注:spark为第一节中spark
collect_list() 将groupBy 的数据处理成列表
数据介绍:有一个课程评分的记录表,表项为课程ID,用户ID,该用户对课程的评论,现将用户评论放在列表中,便于后续处理
from pyspark.sql.functions import collect_list
df = spark.sql("select course_id,comment from table_course")
df = df.groupBy("course_id")
.agg(collect_list("comment"))
.withColumnRenamed("collect_list(comment)", "comment_list")
df = df.select("course_id","comment_list")
获取course_id 和comment_list 之后即可存表,或者对comment_list使用udf自定义函数,将数据组拼接成字符串。 注:spark为第一节中spark, 注意import包
max取最大值min取最小值
数据介绍:供应商发布课程表,供应商发布了很多课程,发布的每个课程都有发布时间,在数据库中是timestamp类型,数据表中表项为org_id, course_id, publish_date,现要获取供应商发布课程的最新时间作为该供应商的最新活跃时间。
思路:timestamp类型的数据也可使用max
df = spark.sql("select org_id,course_id,publish_date from org_table")
df = df.groupBy("org_id")
.agg({"publish_date": "max"})
.withColumnRenamed("max(publish_date)", "active_time")
df = df.select("org_id","active_time")
获取org_id 和active_time 之后即可存表。 注:spark为第一节中spark
多条件groupBy求和sum
数据介绍:一张企业表,企业下有很多职位,不同的企业可能有相同的职位,基于每个企业下的每个职位,统计了该职位某个热搜词被检索的次数,现需要根据职位类别统计各个热搜词被检索的总次数。
企业ID | 职位ID | 热搜词 | 该热搜词被检索次数 |
org_id | pos_id | word | word_count |
A1 | pos001 | 保险金融 | 1 |
A1 | pos002 | 保险金融 | 2 |
A1 | pos003 | 保险金融 | 3 |
A1 | pos004 | 保险金融 | 4 |
A2 | pos001 | 保险金融 | 5 |
A2 | pos001 | 教育 | 6 |
A2 | pos003 | 保险金融 | 7 |
A2 | pos003 | 智能 | 8 |
思路:
df = spark.sql("select pos_id,word,word_count from org_table")
df = df.groupBy("pos_id","word")
.agg({"word_count": "sum"})
.withColumnRenamed("sum(word_count)", "total_count")
df = df.select("pos_id","word","total_count")
根据职位类别ID和热搜词两个条件聚合数据,将相同职位ID和相同热搜词的表项聚合在一起,将聚合在一起的词频累加。 注:spark为第一节中spark
结果:
职位ID | 热搜词 | 该热搜词被检索次数 |
pos_id | word | word_count |
pos001 | 保险金融 | 6 |
pos002 | 保险金融 | 2 |
pos003 | 保险金融 | 10 |
pos004 | 保险金融 | 4 |
pos001 | 教育 | 6 |
pos003 | 智能 | 8 |
此时如若需要对某个职位下的所有的热搜词按频率排序,然后只保留top5,则后续工作可以使用udf自定义函数的方法,将词和词频整合成字典或者列表,然后按照pos_id聚合再一起,用sorted按词频排序。
本文部分知识点参考链接