图神经网络(二)GCN的性质(1)GCN与CNN的联系

  • GCN与CNN的联系
  • 1.图像是一种特殊的图数据
  • 2.从网络连接方式来看,二者都是局部连接
  • 3.二者卷积核的权重是处处共享的
  • 4.从模型的层面来看,感受域随着卷积层的增加而变大


第二章 GCN的性质

 本章通过对GCN的一些性质的集中解读来加深我们对于GCN的理解。在2.1节中,我们介绍了同为卷积模型的GCN与CNN的联系,从中可以看到二者具有非常该的迁移性;在2.2节中,我们重点阐述了GCN对图数据进行端对端学习的机制;在2.3节中,从低通滤波器的视角,解释了GCN对于图数据学习能力的有效性,同时可以看到这种频域视角的解读,对于指导GCN模型所面临的一个典型问题——过平滑,该问题给GCN模型的诊断与优化工作指出了明确的方向1

GCN与CNN的联系

在第一章中我们介绍了空域视角下的图卷积操作,在这种视角下的GCN模型与CNN模型有着十分紧密的共性联系。从本质上看,二者都是聚合邻域信息的运算,只是作用的数据对象不同。下面我们将更加细致地总结出二者间的几点区别与联系(见图2-1)。




cnn与gcn结合_图神经网络

图2-1 CNN与GCN间的区别与联系

1.图像是一种特殊的图数据

 CNN中的卷积计算相较于GCN中的卷积计算买最大的区别是没有显式地表达出邻接矩阵,但是进行实际计算的时候,我们依然需要考虑数据之间的结构关系。如果我们将图像中的每个像素视作一个节点,那么在常见的比如3×3大小的卷积核作用下,可以将中心节点附近3×3的栅格内的像素等价为自己的邻居。从这个角度来看,我们将像素视作节点,将像素之间空间坐标的连线作为彼此之间的边,如此图像数据就变成了一种结构非常规则的图数据,CNN中的卷积计算则是用来处理这类固定2D栅格的图数据。相较之下,一般提到图数据,往往单个节点附近的邻域结构是千差万别的,数据之间的关系也较为复杂多样,GCN中的卷积计算则是用来处理更普遍的非结构化的图数据的。

2.从网络连接方式来看,二者都是局部连接

cnn与gcn结合_cnn与gcn结合_02,计算作用在其一阶子图上;CNN的计算为:cnn与gcn结合_cnn与gcn结合_03,计算作用在中心像素附近cnn与gcn结合_权重_04的栅格内,这种节点下一层的特征计算只依赖于自身邻域的方式,在网络连接上表现为一种局部连接的结构。相较于全连接结构,局部连接大大减少了单层网络的计算复杂度。不过在权重设置上二者有一定的区别,由于图像数据中固定的山歌结构,CNN的卷积核设计了9组权重参数,而为了适应不同的图数据结构,GCN的卷积权重参数退化为一组,从图2-1中可以直观地看出这一差别。从拟合能力上来讲,CNN是更有优势的。

3.二者卷积核的权重是处处共享的

 与CNN一样,GCN中的卷积核也作用于全图所有的节点,在每个节点出的计算中权重参数都是共享的,这样的处理方式大大减少了单层网络的参数量,可以有效避免过拟合现象的出现。

4.从模型的层面来看,感受域随着卷积层的增加而变大

cnn与gcn结合_权重_04,到第二层的cnn与gcn结合_cnn与gcn结合_06,在不断地扩大。在GCN中,中心节点可以融合的信息从一阶邻居拓展到二阶邻居,二者的感受域都随着卷积层的增大而变大。同时,我们可以看到,在这两类模型中,节点自身特征的更新时域卷积运算强耦合在一起的,每一个新卷积层的加入,都可以使节点获得更加抽象化的特征表示。



cnn与gcn结合_cnn与gcn结合_07

图2-2 CNN与GCN的感受域

另外,从学习任务上来看,CNN与GCN也有着非常强的可类比性。图2-3中的a图和b图展示了计算机视觉中的两大任务:图像分类与图像分割。图像分类是一种需要对数据全局信息进行学习的任务,这对应于全图层面的图分类任务,如图2-3的c图所示,研究人员利用脑信号构图,实现对正常人、阿尔兹海默症患者以及轻度认知障碍患者的脑信号图进行分类。



cnn与gcn结合_深度学习_08

图2-3 CNN与GCN任务对比23

 如图2-3中的b图所示的图像分割是一种需要对像素及其局部信息进行整合学习的任务,模型最后需要对每个像素进行分类判定,这与图数据中节点层面的节点分类任务对应;图2-3中的d图展示了GCN如何基于论文应用数据集对图中的每个节点(代表论文)进行学科类别分类。作为一种重要的图数据学习模型,GCN及其衍生模型的任务主要包括图分类以及节点分类。

 GCN与CNN的折中强关联特性,使得二者在多个方面都有很高的可类比性,这给GCN的设计和发展工作指明了方向,在后面两章讲图分类模型的时候,我们会再一次看到这种借鉴所产生的的作用。

参考文献