2. 读《Graph Neural Networks:A Review of Methods and Applications》-2019

2.1 基本概念

图神经网络(GNNs)是通过图的节点之间的消息传递来获取图的依赖性的连接模型。与标准的神经网络不同,图神经网络保留了一种能够以任意深度表示其邻域信息的状态。

基于图形卷积网络(GCN)、图形注意网络(GAT)、门控图形神经网络(GGNN)等图形神经网络变体的系统在上述许多任务上都表现出了突破性的性能。

CNN强在{局部连接,权值共享,多层抽象},CNN的缺点:CNN 只能作用在规则的 Euclidean 数据上。怎么让GNN在图结构上拥有同样的属性?

使用图嵌入(Graph Embedding)把图改造成规则化数据,需要人工设计特征,参数不能共享,计算复杂,效果也未必好。
几种图嵌入方法:DeepWalk、LINE、SDNE)

目前GNNs分为五类:图形卷积网络、图形注意网络、图形自动编码器、图形生成网络和图形时空网络;graph convolutional networks, graph attention networks, graph auto-encoders,graph generative networks and graph spatial-temporal net-works.

对比CNN的三大特征,GNN类比的话:(1)局部连接是图的最基本的表现形式。(2)权值共享可以减少网络的计算量。(3)多层结构可以让网络捕获不同的特征。然而,从CNN到GNN的转变还面临着另一个问题,难以定义局部卷积核和池化操作。

2.2 模型

2.2.1 模型类型
  • 有向图(有向边,两种矩阵)
  • 异构图(不同类型的点,one-hot将原特征转换;邻居组)
  • 有边信息的图
  • 动态图(静态图结构和动态的输入信号)
2.2.2 传播类型

gnn和cnn GNN和CNN差别_数据挖掘

  • 基于卷积的
  • 谱方法 spectral(频域)
  • 谱网络Spectral Network: 卷积操作定义在图的频域内
  • ChebNet:filter可以使用切比雪夫多项式来逼近
  • GCN:多项式的K=1
  • AGCN:自适应性,来学习潜在的关系。AGCN学习redual Laplacian并将其添加到原始Laplacian矩阵。
  • 然而,在上述所有谱方法中,学习滤波器依赖于拉普拉斯特征值,而拉普拉斯特征值依赖于图的结构,也就是说,基于特定结构训练的模型不能直接应用于具有不同结构的图。
  • 非谱方法 non-spectral(原图上的方向卷积)
  • 其操作在空间上的近邻上。非谱方法的主要挑战是定义具有不同大小邻域的卷积运算并保持CNNs的局部不变性。
  • Neural FPs:对不同程度的节点使用不同的权重矩阵。
  • DCNN:使用转移矩阵定义节点的邻域。
  • DGNN:对偶图卷积网络,两个CNN,分别捕获局部一致性和全局一致性,并采用无监督损失的方法对它们进行集成。
  • PATCHY-SAN:提取并规范化每个节点的精确节点的邻域。然后将归一化邻域作为卷积运算的感知场。
  • LGCN:利用CNNs作为聚合器,对节点的邻域矩阵执行maxpooling以获取top-k特征,然后应用一维CNN计算隐藏表示。
  • MoNet:非欧几里德域上的空间域模型,
  • GraphSAGE:没有使用完整的邻域集合,而是通过一致抽样来使用固定大小的邻域集合。(使用了三种聚合函数)
  • 基于Gate的
  • 使用GRU或LSTM来减少以前GNN模型中的限制,并改进信息在整个图结构中的长期传播。
  • GGNN Gate GNN:该网络在规划步骤中使用GRU,在固定数量步数内展开重复项,并递归时间反向传播从而计算梯度。
  • LSTM:Child-Sum Tree-LSTM(隐层平均)、N-ary Tree-LSTM(隐层单独)、SLSTM:文本转化为图
  • 基于Attention的
  • GAT( graph attention networ):它将attention纳入传播步骤。它通过对每个节点的邻居进行attention来计算每个节点的隐藏状态,遵循自关注策略。
  • 门控注意网络(GAAN)使用multi-head attention机制,是一种自我关注机制,不同于GAT的平均。
  • 基于的skip connection的
  • 很多应用程序展开或堆叠图形神经网络层,以达到更好的效果。更多的层(即eklayers)使每个节点聚集更多来自邻近节点的信息。但是,较深的模型不能提高性能,较深的模型甚至性能更差。这主要是因为更多的层也可以传播噪声信息从一个指数增长的扩展邻居成员的数量。
  • 通过添加highway gate,在中讨论的特定问题中,性能在4层达到峰值。柱状网络(CLN)也利用了高速网络。但计算权值的功能不同。
  • 《Representation learning on graphs with jumping knowledgenetworks》:提出了一种可学习自适应、结构化的跳跃知识网络。跳跃知识网络从最后一层每个节点的所有中间表示(跳到最后一层)中进行选择,使模型根据需要调整每个节点的有效邻域大小。其使用了串联、最大池和LSTM注意三种方法来聚合信息。跳跃知识边缘网络在社会学、生物信息学和引文网络的实验中表现良好。它还可以与图卷积网络、图年龄和图注意网络等模型相结合,以提高其性能。
  • 基于 Hierarchical Pooling的:
  • diffpool:提出了一种可学习的层次聚类模型,训练每个层的分配矩阵。
2.2.3 训练方法
  • 原始的图卷积神经网络在训练和优化方面有许多缺点方法。1. GCN需要全图拉普拉斯,而对于大型图则需要计算量 2. 节点在layerL-0处的嵌入是通过其所有邻居在layerL-1处的嵌入递归计算的。因此,单个节点的接收场相对于层数呈指数增长,因此计算单个节点的梯度要花费很多。3. GCN被独立地训练成一个固定图,它缺乏归纳学习的能力。
  • sampling:
  • GraphSAGE:用可学习的聚合函数替换了完整的graph-Laplacian,这些函数是执行消息传递的关键,并将其推广到不可见的节点。首先聚集邻域嵌入,与目标节点的嵌入连接,然后传播到下一层。通过学习聚合和传播函数,GraphSAGE可以为未看到的节点生成嵌入。另外,图形使用邻域采样来扩展接收场。
  • PinSage:基于重要性的抽样方法。通过模拟从目标节点开始的随机游动,该方法选择了标准化访问次数最高的前T位的节点。
  • FastGCN:直接采样每个层的接收场。
  • 《Adaptive samplingtowards fast graph representation learning》:与上述固定采样方法相比,引入了一个参数化的可训练采样器,在前一层上进行分层采样。此外,该自适应采样器能同时找到最佳采样重要性和减小方差。
  • Receptive Field Control:感受野控制:积累历史的权重
  • Data Augmentation:为了解决这一局限性,作者提出了联合训练和自训练两种方法来扩展训练数据集。前一种方法寻找训练数据的最近邻,后一种方法则遵循类似于boosting的方法。
  • Unsupervised Training:《GCNN》用了这种方法进行的自编码器的设计。在《GCNN》的基础上有人使用生成对抗网络(GANs)对基于GCN的图形自动编码器进行正则化,以获得先验分布。也有一些graphauto编码器,如NetRA[86]、DNGR[87]、SDNE[88]和DRNE[89],但是它们在框架中不使用GNNs
2.2.4一般框架
  • Message Passing Neural Networks:提出了一种基于图的有监督学习的通用框架,集合了例如卷积中的谱方法和非谱方法、门控图神经网络、交互网络、分子图卷积、深张量神经网络工程等方法。该模型包含两个阶段,一个消息传递阶段和一个读出阶段。消息传递阶段(即传播步骤)运行四个时间步骤,并根据消息功能和顶点更新功能定义。
  • non-local Neural Networks(局部的):
  • NLNN:捕获深度神经网络的长程依赖关系。
  • (embedded)Gaussian function:高斯函数是根据非局部均值[101]和双边滤波器[102]的自然选择。
  • Dot-product、Concatenation:
  • graph network:
  • GN block:GN块包含三个“update”函数φ和三个“aggregation”函数ρ
  • steps:

2.3 应用

图神经网络已经被广泛地应用于有监督、半监督、无监督和强化学习领域。在本节中,我们将应用程序简单地分为三种情况:(1)数据具有明确关系结构的结构情况,如物理系统、分子结构和知识图;(2)关系结构不明确的非结构情况,包括图像、文本等;(3) 其他应用场景,如生成模型和组合优化问题。

论文: Convolutional Networks on Graphs for Learning Molecular FingerprintsMolecular graph convolutions: moving beyond fingerprintsProtein Interface Prediction using Graph Convolutional Networks

gnn和cnn GNN和CNN差别_神经网络_02

2.3.1 结构化的场景
  • 生物化学方面
  • Molecular Fingerprints:分子指纹标度化分子指纹是计算机辅助药物设计的核心步骤,是表征分子的特征向量。传统的分子指纹是手工制作和固定的。将GNN与分子图进行映射,可以得到更好的指纹。
  • 更新的方案:强调原子间的相互作用引入了边缘表示法代替了聚集函数,即
  • 蛋白质界面预测:主要研究蛋白质界面预测这一具有重要应用价值的难题。提出的基于GCN的方法分别学习配体和受体蛋白残基的表达,并将它们合并用于成对分类。

2.4 未来问题

  • Shallow Structure
  • Dynamic Graphs
  • Non-Structural Scenarios
  • Scalability(可伸缩性)