论文列表

目前找了录用的一些有关于Graph或者GNN的文章,先过一遍各个文章的摘要,然后再花时间对觉得比较重要或者有趣的文章进行详细阅读。

pnn神经网络能用来计算概率吗 pnn神经网络spread_神经网络

Paper 1-2

Paper 3-4

Paper 5-6

Paper7

pnn神经网络能用来计算概率吗 pnn神经网络spread_pnn神经网络能用来计算概率吗_02

  • 任意的graph存在节点缺少标准位置信息的问题,会降低GNN的区分同构或者对称graphs的表达能力。
  • 一个解决方法就是Positional Encoding (PE),并将其嵌入到输入层,比如一个Transformer中。
  • 一个可行的PE方法就是Laplacian eigenvectors。
  • 我们方法将结构和位置表示解耦,这样GNN学习起来比较容易。
  • 我们提出了LSPE架构,并在几种sparse和FC(Transformer-like)的GNNs中进行了实验,在分子识别数据集上取得了1.79%-64.14%的性能提升。

实验

三个数据集上做的实验,看起来增加了不同的PE以后,绝大部分性能都得到了提升。

pnn神经网络能用来计算概率吗 pnn神经网络spread_深度学习_03

分析

无论是带不带参数的PE,个人理解就是增加了graph的结构信息,虽然文章是将拓扑结构信息和PE信息解耦,并用不同的loss去学习,但是本质上来说,也相当于是引入了更多的graph结构的信息,只不过PE扩大了特征空间。自然地,用来区分图结构,分类问题,性能提升是理所当然了。

Paper8

pnn神经网络能用来计算概率吗 pnn神经网络spread_pnn神经网络能用来计算概率吗_04

摘要简介

  • 主要目的是如何压缩超大图,并且压缩后的graph也是highly-informative,能够用于GNN的训练。
  • 作者提出了一种策略,通过模仿GNN的训练过程,同时对节点特征和结构信息进行压缩。
  • 在Reddit,Flickr,Citeseer三个经典的数据集上达到了99.9%的压缩率,性能也在分别维持在95.3%,99.8%,99.0%。

实验

这压缩效率确实猛啊。

pnn神经网络能用来计算概率吗 pnn神经网络spread_神经网络_05


和别的baseline压缩算法进行对比,效果还是挺明显。

pnn神经网络能用来计算概率吗 pnn神经网络spread_ICLR_06


用不同GNN去测试:

pnn神经网络能用来计算概率吗 pnn神经网络spread_ICLR_07

分析

忍不住好奇看了眼方法:

pnn神经网络能用来计算概率吗 pnn神经网络spread_pnn神经网络能用来计算概率吗_08


这个bi-level的优化问题定义还是比较清晰的。