图神经网络(GNNs)已被广泛用于图结构数据的建模。最近,在提高gnn的可扩展性以处理具有数百万节点的图方面取得了突破。然而,如何利用图神经网络实时表示大规模动态图的连续变化仍然是一个开放问题。现有的动态图神经网络(dynamic gnn)侧重于对图的周期性演化进行建模,通常以快照为基础。这种方法有两个缺点:首先,图的变化在图表示中反映出来有很大的延迟,导致模型的准确性损失;其次,在每个快照中重复计算整个图的表示矩阵非常耗时,严重限制了可扩展性。本文提出即时图神经网络(InstantGNN),一种动态图表示矩阵的增量计算方法。通过边到达模型处理动态图,该方法避免了耗时的重复计算,并允许对表示进行即时更新和即时预测。同时支持具有动态结构和动态属性的图。并给出了这些更新的时间复杂度上界。此外,该方法提供了一种自适应的训练策略,在模型可以取得最大性能增益的时刻指导模型重新训练。在几个真实和合成数据集上进行了广泛的实验。实证结果表明,所提出模型达到了最先进的精度,同时比现有方法的效率高几个数量级。

注意:我们的方法避免了耗时、重复的计算,并允许对表示进行即时更新和即时预测。同时支持具有动态结构和动态属性的图。

背景:

设Z为图表示矩阵,则SGC[34]、AGP[33]、GBP[7]所使用的通用传播方程可表示为:

NAR动态神经网络是什么意思 动态图神经网络模型_python

 

NAR动态神经网络是什么意思 动态图神经网络模型_动态图_02

 

 

NAR动态神经网络是什么意思 动态图神经网络模型_神经网络_03

 方法:

本文提出InstantGNN,一种动态图上的高效近似GNN该方法背后的直觉是基于广义传播框架增量更新表示矩阵。具体地,受[4,33]的启发,采用个性化PageRank的计算框架来获得近似版本的表示矩阵Z。当图发生变化时,对受影响节点的表示向量进行局部调整,通过下一步的传播操作计算变化对剩余节点的影响。所提出方法为节点表示提供了瞬时更新,同时保证与重新计算具有相同的错误。更新策略的基础是基于个性化PageRank的底层机制,即在动态图的演化过程中始终保持不变,如引理1所述。在真实数据集和合成数据集上的大量实验结果验证了InstantGNN的有效性和高效性。特别是InstantGNN在保持相当精度的同时,将具有数百万节点的大图的计算效率提高了一对多的数量级

NAR动态神经网络是什么意思 动态图神经网络模型_神经网络_04