KD_Tree的话,一年半以前,那时候翻我们学校给的模板翻到看了,上面写的"by edward_mj"。这个ID浙大的人应该很熟悉,13-14年连续两年带队打进WF。这里我可以吹一下,edward_mj可是和我同一个高中毕业的哟~当时也问了一下学长,学长说KD树是他写的最溜的一个数据结构之一。
直到这几天我才有时间来学学KD树。所谓KD树,顾名思义k-dimension tree,能够存储k维数据的一棵树。这里这个树其实是指BST。朴素的BST,像Treap、Splay这些,节点都是存储一维的信息,但是KD树就是它们的拓展,可以存储多维数据。一维的时候很容易做到,直接把数据大小当作key,小的放在左边大的放在右边即可。其实拓展到高维的时候也是类似的,只不过要考虑多个维度,最显而易见的想法就是对于每一层,我用不同的维度的数值作为key来进行比较。例如说,对于一个二维数据,我第一层用第一维,第二层用第二维,第三层第一维,第四层第二维……这样,一棵树可以比较均匀的建立。下图给出了一个建立好的KD树的案例。
可以看到,这个案例中总共有6个点,画在坐标轴上就如图1所示,然后我们对图1的区域进行划分。按照顺序,显示竖着切(根据横坐标x)再是横着切(根据纵坐标y)。(7,2)作为根节点,竖着切一刀,所有横坐标小于7的在它的左边,大于等于的在它的右边。接着,下一层换作另外一个坐标继续分割,直到所有的点被划分完毕。
KD树的建立就是这样,与普通的BST相差不大。但他的主要功能却与BST不同,一般来说,KD树用来求与已知点距离最近的m个点是哪几个,也即KNN问题k邻近查询问题。给你一个点,第一件要做的事情显然就是往他所在的区域进行查找,所以对于给定点按照其数值在树上遍历,一直找到一个最小的区域再开始回溯。这里我还是用图结合上上面那个案例来说明。
对于给定的查询点(2,4.5),我们首先要确定他所在的最小的区域,显然就是左图左上角那一个矩形的区域。然后,目前为止我们能够直到的距离查询点最近的点是点(4,7),于是我们以这两点之间的距离为半径,查询点为圆心做一个圆(如果高维那就做超球体),判断这个这个最近点的父亲是否在圆内或者圆上。如果在,那么说明这个它的兄弟所在的区域里面可能会有比它距离查询点更近的点,所以要对它的兄弟也进行搜索。这样,把所有该搜索的地方都搜索完毕后,剩下的点就是最邻近的点。如果是求K邻近,那么只需要弄一个优先队列,里面始终保证有且仅有K个点即可。
KD树的话,初学就暂时学了这么多。代码实现,见下面我给的模板题的代码吧。模板题是 HDU 4347 。题意就是一个m邻近问题。代码如下: