我们知道DISTINCT可以去掉重复数据,GROUP BY在分组后也会去掉重复数据,那这两个关键字在去掉重复数据时的效率,究竟谁会更高一点?

1.使用DISTINCT去掉重复数据

我们先看下面这个例子:


SELECT


执行完之后的结果如下:


spark sql去重 spark distinct去重多个字段_groupby索引有效吗


接下来,我们将这个表里的数据增大到194万条,再重复上面的实验。


--将表SalesOrderDetail插入到一张物理表中


将SalesOrderDetailID的自增长属性取消掉之后,插入1000条自身的数据,这样我们就可以得到1000条重复的SalesOrderDetailID,相比1942072条记录占比很小了

如下图,将自增长标识的换成后即可插入了。


spark sql去重 spark distinct去重多个字段_distinct对两个字段去重_02


INSERT


数据插入完整后,我们在将上一讲的内容重复一下,看看效果如何?

A.在没建索引的情况下,我们只查询UnitPrice这一列


SELECT


我们看一下执行情况:


spark sql去重 spark distinct去重多个字段_distinct多个字段去重_03


接下来是鉴证奇迹的时刻了,我们加DISTINCT在UnitPrice前面试试


SELECT


spark sql去重 spark distinct去重多个字段_distinct去重多个字段_04


和之前的实验结果一致,在执行时间没有多大差别的情况下,分析时间成倍的减少了。

B.当SalesOrderDetailID取消掉自增长属性后就和普通列一样了。

我们来重复上面的步骤:


SELECT


执行完后结果如下:


spark sql去重 spark distinct去重多个字段_spark sql去重_05


与上面的UnitPrice没使用DISTINCT情况基本一致。

然后我们给SalesOrderDetailID加上DISTINCT后会怎么样呢?


SELECT


我们可以看到如下执行情况:


spark sql去重 spark distinct去重多个字段_groupby索引有效吗_06


从上图可以看到,DISTINCT已经排除了1000条记录,但是在执行时花的时间比没加DISTINCT更久了。

通过上述两个实验,我们可以得出这样一条结论:在重复量比较高的表中,使用DISTINCT可以有效提高查询效率,而在重复量比较低的表中,使用DISTINCT会严重降低查询效率。所以并不是所有的DISTINCT都是降低效率的,当然你得提前判断数据的重复量。

2.GROUP BY与DISTINCT去掉重复数据的对比

GROUP BY与DISTINCT类似,经常会有一些针对这两个哪个效率高的争议,今天我们就将这两个在不同重复数据量的效率作下对比。

A.重复数据量多的情况下,对UnitPrice进行去重


SELECT


将上述两条语句一起执行,结果如下:


spark sql去重 spark distinct去重多个字段_distinct对两个字段去重_07


可以看出两条语句对应的执行时间GROUP BY比DISTINCT效率高一点点。

B.重复数据量少的情况下,对SalesOrderDetailID进行去重


SELECT


也是同时执行上述两条语句,其结果如下:


spark sql去重 spark distinct去重多个字段_distinct对两个字段去重_08


作者对上述语句同时执行多次,针对重复量多的UnitPrice,GROUP BY总的处理效率比DISTINCT高一点点,但是针对重复量低的SalesOrderDetailID,DISTINCT就比GROUP BY快一点了,而如果随着整体数据量的增加,效果会越来越明显。

今天的内容就讲到这里,小伙伴可以动手尝试一下。如有不明白的可以在下方留言一起探讨。