目录

  • 前言
  • 简介
  • Abstract
  • 1 Introduction
  • 2 Background and Related Work
  • 2.1 Random Walk in DeepWalk
  • 2.2 Skip-gram with Negative Sampling
  • 2.3 PMI matrix and SVD
  • 2.4 Deep Neural Networks
  • 3 DNGR Model
  • 3.1 Random Surfing and Context Weighting
  • 3.2 Stacked Denoising Autoencoder
  • 3.3 Discussions of the DNGR Model
  • 4 Datasets, Baselines
  • 4.1 Datasets
  • 4.2 Baseline Algorithms
  • 5 Experiments
  • 5.1 Parameters
  • 5.2 Experiments
  • 5.2.1 Clustering Task on the 20-NewsGroup Network
  • 5.2.2 Visualization of Wine
  • 5.2.3 Word Similarity Task
  • 5.2.4 Importance of Deep Structures
  • 6 Conclusion
  • 读后总结
  • 结语

【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_神经网络

前言

Hello!
非常感谢您阅读海轰的文章,倘若文中有错误的地方,欢迎您指出~
 
自我介绍 ଘ(੭ˊᵕˋ)੭
昵称:海轰
标签:程序猿|C++选手|学生
简介:因C语言结识编程,随后转入计算机专业,获得过国家奖学金,有幸在竞赛中拿过一些国奖、省奖…已保研。
学习经验:扎实基础 + 多做笔记 + 多敲代码 + 多思考 + 学好英语!
 
唯有努力💪
 

知其然 知其所以然!

 
本文仅记录自己感兴趣的内容

简介

会议:AAAI‘16 (CCF A类)

年度:2016

Abstract

在本文中,我们提出了一种新的学习图表示的模型

该模型通过捕获图结构信息来生成每个顶点的低维向量表示

与以往的研究不同,我们采用随机冲浪模型( random surfing model)直接获取图结构信息,而不是使用Perozzi等人(2014)提出的基于抽样的方法生成线性序列


我们还为Levy和Goldberg(2014)提出的矩阵分解方法提供了一个新的视角:

  • 在该方法中,点态互信息(pointwise mutual information,PMI)矩阵被认为是Mikolov等人提出的带负采样的跳跃图模型目标函数的解析解
  • 他们的方法涉及到使用SVD从PMI矩阵中寻找低维投影

大概意思是使用PMI矩阵就可以实现类似跳跃图模型的效果(使用矩阵而不用神经网络了)

然而,与此不同的是,在我们的模型中引入了堆叠去噪自编码器来提取复杂特征和模型非线性

1 Introduction

在许多现实问题中,图形是信息管理的常见表示形式

例如,在蛋白质网络研究中
从蛋白质-蛋白质相互作用网络中挖掘蛋白质复合体对描述同源蛋白的功能多样性和有价值的进化见解具有重要作用,这本质上是一个聚类问题

开发自动算法来从图表中提取有用的深度信息是至关重要的

组织这些与潜在的大型复杂图相关的信息的有效方法之一是学习图表示

它为图的每个顶点分配一个低维密集向量表示,编码图所传递的有意义的信息


最近,人们对学习词汇嵌入的工作产生了浓厚的兴趣(Bullinaria和Levy 2007;Mikolov等人2013)

他们的目标是从大量的自然语言文本中学习每个基于上下文的自然语言单词的低维向量表示

这些作品可以看作是线性序列的学习表征,因为语料库由线性结构组成,而线性结构是自然语言单词序列

由此产生的紧凑、低维向量表示被认为能够捕获丰富的语义信息,并被证明对各种自然语言处理任务有用

虽然已经确定了学习线性结构良好表示的高效和有效的方法(Mikolov et al. 2013;Pennington, Socher和Manning 2014),处理具有丰富拓扑结构的一般图结构更加复杂

为此,一种自然的方法是确定有效的方法,将学习一般图结构顶点表示的任务转换为从线性结构学习表示的任务

Perozzi等人(2014)提出的DeepWalk提出了一种思想,通过一种被称为截断随机漫步的均匀抽样方法,将未加权的图转换为线性序列的集合

  • 在他们的方法中,采样顶点序列表征了图中顶点之间的连接,这个步骤可以理解为将一般图结构转换为大量线性结构集合的过程
  • 接下来,他们利用Mikolov等人(2013)提出的跳跃图模型(skip-gram model)从这种线性结构中学习顶点的低维表示
  • 学习到的顶点表示在一些任务中被证明是有效的,优于以前的几种方法,如谱聚类和模块化方法(Tang和Liu 2009a;2009 b;2011;2003年的Macskassy和Provost)。

虽然这种学习非加权图顶点表示的方法是有效的,但仍有两个重要的问题有待回答

  • 1)首先,如何更准确、更直接地获取加权图的图结构信息?
  • 2)第二,是否有更好的方法来表示线性结构的顶点?

为了回答第一个问题

  • 我们设计了一个适用于加权图的随机冲浪模型,它可以直接产生一个概率共生矩阵
  • 这样的矩阵类似于从图形中采样线性序列得到的共并发矩阵(Bullinaria和Levy 2007),但我们的方法不需要采样过程

为了回答第二个问题

  • 我们首先回顾一种用于学习线性结构顶点表示的流行方法
  • Levy和Goldberg(2014)最近的一项研究表明,用负采样方法优化与跳跃图相关的目标函数(Mikolov等人2013)与分解单词及其上下文的移位正点互信息(PPMI)矩阵有内在联系
  • 具体来说,他们展示了使用标准奇异值分解(SVD)方法对PPMI矩阵进行分解,从而从分解后的矩阵中归纳出顶点/单词表示是可能的

最近的方法:GraRep (Cao, Lu, and Xu 2015),已被证明在学习图表示的任务上取得了良好的经验结果

然而,该方法采用奇异值分解(SVD)进行线性降维,并没有探索出更好的非线性降维技术


在本文中,我们给Levy和Goldberg(2014)的工作提供了一个新的视角

我们认为原始的PPMI矩阵本身就是图的显式表示矩阵,SVD步骤本质上起到了降维工具箱的作用

虽然SVD步骤诱导最终的单词表征被证明是有效的,Levy等人(2015)也证明了使用PPMI矩阵本身作为单词表征的有效性

有趣的是,正如作者所示,从SVD方法学习到的表示不能完全超过PPMI矩阵本身的表示(Levy, Goldberg, and Dagan 2015)

由于我们的最终目标是学习良好的顶点表示,有效地捕获图的信息

研究从PPMI矩阵中恢复顶点表示的更好方法是至关重要的,在这里可以捕获不同顶点之间潜在的复杂、非线性关系


深度学习照亮了非线性复杂现象建模的道路,在不同的领域有许多成功的应用,如语音识别(Dahl et al. 2012)和计算机视觉

深度神经网络(DNN),例如自编码器是一种从低级特征学习高级抽象的有效方法

这个过程本质上执行降维,将数据从高维空间映射到低维空间

与基于(截断)svd的降维方法(通过线性投影从原始表示空间映射到一个低秩的新空间)不同,深度神经网络(如堆叠自编码器)可以学习高度非线性的投影

事实上,Tian et al.(2014)最近的一项工作在聚类任务中使用稀疏自编码器代替光谱聚类的特征值分解步骤,取得了显著的改进

在他们工作的激励下,我们还研究了使用基于深度学习的替代方法从原始数据表示学习低维表示的有效性

与他们的工作不同,我们的目标是学习一般图的顶点表示,而不是专门关注聚类任务。

我们将深度学习方法应用于PPMI矩阵,而不是他们模型中使用的拉普拉斯矩阵

前者已被证明具有产生比后者更好的表现的潜力

为了增强我们模型的鲁棒性,我们还使用了堆叠去噪自编码器来学习多层表示


我们将我们提出的模型称为DNGR(用于图表示的深度神经网络)

学习到的表示可以被视为输入特征,可以输入到其他任务中,如无监督聚类和监督分类任务

为了验证我们模型的有效性,我们进行了实验,将学习到的表示用于一系列不同的任务,其中考虑了现实世界中不同类型和拓扑的网络

为了进一步证明我们的模型在考虑更简单、更大规模的实际图结构时的有效性,我们将我们的算法应用于一个非常大的语言数据集,并在单词相似任务上进行了实验

在所有这些任务中,我们的模型在学习图表示方面优于其他方法,而且我们的模型也可以并行化


我们的主要贡献有两方面:

  • 从理论上讲,我们认为深度神经网络的优势在于能够捕获图所传达的非线性信息,而传统的线性降维方法不能很容易地捕获这些信息。此外,我们认为我们的随机冲浪模型可以用来取代广泛使用的传统的基于抽样的方法来收集图表信息。
  • 经验上,我们证明了我们的新模型能够更好地学习加权图的低维顶点表示,其中有意义的语义,关系和结构信息的图可以被捕获。我们展示了结果表示可以有效地用作不同下游任务的特征。

2 Background and Related Work

在本节中,我们

  • 首先展示了一个在DeepWalk中提出的无权重图的随机抽样,以说明将顶点表示转换为线性表示的可行性
  • 接下来,我们考虑两种词表示方法:带负采样的跳跃图和基于PPMI矩阵的矩阵分解。这些方法可以被视为从线性结构数据学习词汇表征的线性方法。

Notation

【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_线性结构_02

  • 【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_神经网络_03:顶点集合
  • 【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_加权图_04: 边集合
  • 在一个未加权的图中,边权表示两个顶点之间是否存在关系,因此是二值关系
  • 相反,加权图中的边权是表示两个顶点之间关联程度的实数。虽然加权图中的边权可以是负的,但本文只考虑非负权

为了便于标记,我们在本文中还使用【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_线性结构_05【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_神经网络_06来表示顶点

我们试图通过捕获深度结构信息来获得一个表示图【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_加权图_07顶点的矩阵【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_图结构_08(R即是我们需要求到嵌入)

2.1 Random Walk in DeepWalk

DeepWalk提供了一种截断随机漫步的有效方法,将未加权的图结构信息转化为表示图顶点之间关系的线性序列

所提出的随机游走是一种均匀抽样方法,适用于非加权图

  • 他们首先从图中随机选择一个顶点【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_图结构_09,并将其标记为当前顶点
  • 然后从当前顶点【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_图结构_09的所有邻居中随机选择下一个顶点【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_线性结构_11
  • 现在,他们将这个新选择的顶点【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_线性结构_11标记为当前顶点,并重复这样的顶点采样过程
  • 当一个序列内的顶点数达到一个预先设定的值,即步行长度【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_神经网络_13时,算法终止
  • 重复上述过程【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_网络嵌入_14次(称为总行走)后,收集线性序列块

截断随机游动是利用线性序列表达非加权图结构信息的一种有效方法,但其采样过程较慢,且超参数【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_加权图_15【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_图结构_16不易确定

我们注意到,DeepWalk生成了一个基于采样线性序列的共现矩阵。

简要介绍了一下DeepWalk

在第三节中,我们描述了我们的随机冲浪模型,该模型直接从一个加权图构造一个概率共现矩阵,从而避免了昂贵的抽样过程

2.2 Skip-gram with Negative Sampling

自然语言语料库由线性序列的词流组成

近年来,神经嵌入方法和基于矩阵分解的方法在词汇表征学习中得到了广泛的应用。

在(Mikolov et al. 2013)中提出的跳跃图模型已经被证明是学习单词表征的一种有效和高效的方法

两种值得注意的改进跳跃图模型的方法是

  • 负采样(SGNS)
  • 分层softmax

在本文中,我们选择使用前一种方法:负采样(SGNS)


在SGNS中,噪声对比估计(NCE)方法的简化变体(Gutmann和Hyv̈arinen 2012;采用Mnih和Teh 2012)来增强跳跃图模型的稳健性

SGNS从经验的单字母单词分布中随机创建负对【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_加权图_17,并尝试使用低维向量表示每个单词【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_线性结构_18和上下文单词【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_加权图_19

SGNS的目标函数是使正对【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_线性结构_20最大,负对【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_加权图_17最小

【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_神经网络_22

式中

  • 【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_加权图_23【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_线性结构_24的sigmoid函数
  • 【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_加权图_25为负样本数。【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_网络嵌入_26是负采样【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_图结构_27得到的实例符合分布【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_线性结构_28

介绍Skip-gram模型(采用负采样)

2.3 PMI matrix and SVD

学习图形表示(尤其是单词表示)的另一种方法是基于矩阵因式分解技术

这些方法基于全局共现计数的统计来学习表示,并且在某些预测任务中可以优于基于单独局部上下文窗口的神经网络方法

矩阵因式分解方法的一个例子是超空间类比分析(Lund And Burgess 1996),

  • 它因式分解词-词共现矩阵以产生词表示
  • 这种方法和相关方法的主要缺点是:具有相对较少语义值的频繁词(例如,停用词)对所生成的词表示具有不成比例的影响

丘奇和汉克斯的逐点互信息(PMI)矩阵就是为了解决这个问题而提出的,此后被证明提供了更好的单词表示

【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_加权图_29


改进性能的一种常见方法是将每个负值赋给0,这在(Levy和Goldberg 2014)中有详细说明,以形成PPMI矩阵

【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_加权图_30

PMI矩阵【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_神经网络_31


虽然PPMI矩阵是高维矩阵,但使用截断奇异值分解方法进行降维会产生关于【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_图结构_32损失的最优秩因式分解

我们假设矩阵【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_神经网络_33可以分解成三个矩阵【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_线性结构_34

  • 【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_加权图_35【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_加权图_36是正交阵
  • 【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_图结构_37是对角阵

换句话说:

【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_神经网络_38

这里

  • 【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_加权图_39【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_加权图_40是对应于前【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_网络嵌入_41个奇异值(在【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_图结构_42中)的【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_加权图_35【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_加权图_36的左侧【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_网络嵌入_41

根据Levy等人的说法。(2015),字表示矩阵【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_线性结构_46可以是:

【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_加权图_47

PPMI矩阵【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_神经网络_33单词表示矩阵和上下文矩阵的乘积

奇异值分解(SVD)过程提供了一种从矩阵【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_神经网络_33中寻找矩阵【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_线性结构_46的方法,其中

  • 【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_图结构_08的行向量是词/顶点的低维表示,可以通过【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_加权图_52给出的高维表示的线性投影来获得

我们认为这样的投影不一定是线性投影

在这项工作中,我们研究了通过使用深度神经网络来使用非线性投影方法来代替线性奇异值分解方法

2.4 Deep Neural Networks

深度神经网络可以用来学习多层次的特征表示,已经在不同的领域取得了成功的结果

训练这样的网络被证明是困难的,一个有效的解决方案,在(Hinton和Salakhutdinov,2006;Bengio et al.2007),是采用贪婪的分层无监督预训练

这一策略旨在一次学习每一层的有用表示法,旨在一次学习每一层的有用表示法

然后,将学习到的低级表示作为输入馈送到下一层,用于随后的表示学习

神经网络通常使用诸如Sigmoid或tanh之类的非线性激活函数来捕捉从输入到输出的复杂的、非线性的投影

为了训练涉及多层特征表示的深层体系结构,自动编码器已成为常用的构建块之一自动编码器执行两个动作–编码步骤,然后是解码步骤。

略(AE的内容暂略)

堆叠式自动编码器是由多层这样的自动编码器组成的多层深度神经网络

堆叠式自动编码器使用逐层训练方法来提取基本规则,这些规则逐层地从数据中捕获不同级别的抽象,其中较高层传达来自数据的较高级别的抽象

3 DNGR Model

如图1所示,该模型由三个主要步骤组成

  • 首先,引入随机冲浪模型来捕获图结构信息,并生成一个概率共现矩阵
  • 接下来,我们根据概率共现矩阵计算PPMI矩阵(见第2.3节)
  • 之后,一个堆叠的去噪自编码器(第3.2节)用来学习低维顶点表示

【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_神经网络_53

3.1 Random Surfing and Context Weighting

将图结构转换为线性序列的抽样方法虽然有效,但也存在一些缺点:

  • 首先,采样序列具有有限的长度。这使得在采样序列边界处出现的顶点很难获得正确的上下文信息
  • 其次,确定某些超参数如步长【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_神经网络_13和总步长【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_网络嵌入_14并不简单,特别是对于大型图

为了解决这些问题,我们考虑使用一个随机冲浪模型

该模型是由用于任务排名的PageRank模型激发的


我们首先在一个图中随机排列顶点

假设当前的顶点是第【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_神经网络_56个顶点,有一个转换矩阵【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_加权图_57来捕捉不同顶点之间的转换概率

我们引入了一个行向量【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_线性结构_58

  • 它的第【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_神经网络_59个元素表示经过【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_图结构_60步跃迁后到达第【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_神经网络_59个顶点的概率
  • 【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_网络嵌入_62是第【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_加权图_63个元素的值为1,其他元素都为0的初始1-hot向量

我们考虑一个有重新开始的随机冲浪模型:

  • 在每一个时间点,有一个随机冲浪过程继续的概率【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_神经网络_64
  • 有一个随机冲浪过程返回到原始顶点并重新开始的概率【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_网络嵌入_65

这就得到了如下的递归关系:

【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_网络嵌入_66


如果我们假设在这个过程中没有随机重启,那么经过恰好【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_加权图_67步的转换后到达不同顶点的概率如下所示:

【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_图结构_68

相当于此时【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_神经网络_69


直观地说,两个顶点之间的距离越近,它们之间的关系就应该越亲密

因此,根据上下文节点与当前节点的相对距离来衡量其重要性是合理的

这种加权策略在word2vec和GloVe 中都得到了实施,并被发现对于实现良好的实证结果很重要


基于这一事实,我们可以看到,理想情况下,第【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_神经网络_56个顶点的表示应该按照以下方式构建:

【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_加权图_71

  • 【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_图结构_72为递减函数,即【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_神经网络_73

理想状态时

我们认为,以下基于上述随机冲浪过程的顶点表示构造方法实际上满足上述条件:

【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_线性结构_74

实际的情况


其实可以证明我们有以下几点:

【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_加权图_75

其中【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_图结构_76【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_加权图_77【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_加权图_78中的系数是

【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_神经网络_79

  • 【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_神经网络_80【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_加权图_81的递减函数

而跳跃图中的权重函数可以描述为

【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_加权图_82


GloVe中的权重函数为:

【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_图结构_83

从图2可以看出,所有的权函数都是单调递减函数

【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_线性结构_84


距离来进行不同的加权

这在之前被证明对于构建良好的单词表示是重要的

3.2 Stacked Denoising Autoencoder

我们旨在研究从PPMI矩阵中构建高质量的低维向量表示,以传达图的基本结构信息

SVD(奇异值分解)过程虽然有效,但本质上只产生从PPMI矩阵所包含的向量表示到最终的低维顶点向量表示的线性变换

我们认为在这两个向量空间之间可以建立潜在的非线性映射

因此,我们使用堆栈去噪自编码器(深度学习中常用的一种模型),从原始的高维顶点向量生成压缩的低维向量

如表1所示,我们首先初始化神经网络的参数,然后使用贪婪分层训练策略学习每一层的高层抽象

【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_网络嵌入_85


为了增强DNN的鲁棒性,我们使用了堆叠去噪自编码器(SDAE)

与传统的自动编码器不同,在进行训练步骤之前,去噪自动编码器会部分破坏输入数据

  • 具体地说,我们随机破坏每个输入样本【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_线性结构_86(一个向量),以一定的概率将向量中的一些条目赋值为0

这种想法类似于矩阵完成任务中的缺失条目建模,其目标是利用数据矩阵中的规律性,在特定的假设下有效地恢复完整的矩阵

在如图1所示的SDAE结构中

  • 【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_加权图_87对应输入数据
  • 【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_加权图_88对应第一层学习到的表示
  • 【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_图结构_89对应第二层学习到的表示
  • 临时损坏的节点(如【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_网络嵌入_90)用红色突出显示

【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_神经网络_91

与标准的自动编码器类似,我们再次从潜在表示重构数据。换句话说,我们感兴趣的是:

【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_线性结构_92

其中

  • 【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_加权图_93是损坏的输入数据【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_神经网络_94
  • 【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_神经网络_95是标准的平方损失

3.3 Discussions of the DNGR Model

下面我们来分析一下DNGR的优势

  • Random Surfing Strategy:正如我们在上面3.1节中所分析的,随机冲浪过程克服了与以前的工作中使用的抽样过程相关的限制,它为我们提供了某些期望的属性,这些属性被以前嵌入模型的实现所共享,如word2vec和GloVe。
  • Stacking Strategy:堆叠结构提供了一种平滑的方式进行降维。我们相信,在深度架构的不同层学习到的表示可以为输入数据提供不同层次的有意义的抽象。
  • Denoising Strategy:高维输入数据往往包含冗余信息和噪声。认为该去噪策略可以有效地降低噪声,增强鲁棒性
  • Efficiency: 根据之前的分析(Tian et al. 2014),就图中的顶点数量而言,DNGR中使用的自编码器推断比基于svd的矩阵分解方法具有更低的时间复杂度。SVD的时间复杂度至少是顶点数的二次元。然而,DNGR的推理时间复杂度在图中的顶点数量上是线性的

4 Datasets, Baselines

4.1 Datasets

  • 20-NewsGroup
  • Wine
  • Wikipedia Corpus

4.2 Baseline Algorithms

  • DeepWalk
  • SGNS
  • PPMI
  • SVD

5 Experiments

5.1 Parameters

【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_线性结构_96

5.2 Experiments

5.2.1 Clustering Task on the 20-NewsGroup Network

【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_加权图_97

5.2.2 Visualization of Wine

【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_加权图_98

5.2.3 Word Similarity Task

【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_神经网络_99

5.2.4 Importance of Deep Structures

为了理解深度结构的必要性,我们进一步测量了20-NewsGroup的逐层NMI值。对于3NG和6NG,我们使用3层神经网络来构建表示,对于9NG,我们使用4层,如表2所示。从表5可以看出,三种网络的性能总体上从浅层到深层都有所提高,这说明了深层结构的重要性。

【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_图结构_100

6 Conclusion

在本文中,我们提出了一个深度图表示模型,将每个顶点编码为一个低维向量表示

我们的模型展示了堆叠去噪自动编码器提取有意义的信息和生成信息表示的能力

我们在不同任务的真实数据集上进行了实验,结果表明,该模型的性能优于几种最先进的基线算法

虽然调整神经网络超参数的过程需要努力和专业知识,但我们得出的结论是,通过深度学习探索数据的底层结构可以改善图的表示

读后总结

这篇文章自己读完感觉理解不深刻

因为对于利用矩阵分解求嵌入没有咋深入了解,对于PPMI矩阵等不熟悉

文章整体采用随机冲浪模型 + PPMI + SNAE结合

  • 首先利用随机冲浪模型得到一个概率共现矩阵
  • 再利用概率共现矩阵再生成PPMI矩阵
  • 再使用PPMI矩阵使用SNAE学习其低维表示

难点之一:随机冲浪模型

个人理解,大概意思就是可以得到类似跳跃图模型等效果,不是利用随机游走,而是利用一种概率转移,生成顶点间的概率转移矩阵,然后我们就可以利用这个矩阵,得到,比如,求一个节点的上下文(这样会很方便,借助数学公式进行直接计算,不再需要使用神经网络)

难点之二:PPMI矩阵

借助概率共现矩阵,就可以计算得到PMI矩阵

具体怎么转化的,我没有看懂(emmm,确实看不懂 ,好菜)

然后在对PMI矩阵中的负值转化为0,这样就得到了PPMI矩阵

难点之三:使用SNAE学习嵌入

对于PPMI矩阵【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_神经网络_33,使用【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_神经网络_102作为SNAE的输入

通过多个隐层神经网络的迭代,得到低维向量,然后再解码

通过重构损失进行优化参数

因为之前的方法得到PPMI矩阵后,再使用SVD(奇异值分解)得到低维嵌入
说明是可以通过PPMI得到低维嵌入
这里作者使用SNAE来得到这个低维嵌入

大概思路有一点点懂

具体细节还是很多不懂的地方

之后若有需要详细了解的地方,再仔细阅读!

结语

文章仅作为个人学习笔记记录,记录从0到1的一个过程

希望对您有一点点帮助,如有错误欢迎小伙伴指正

【论文阅读|深读】DNGR:Deep Neural Networks for Learning Graph Representations_图结构_103