GraphSAGE 之前所接触的都是直推式学习,也就是仅仅考虑了当前数据,直接计算出节点的embedding,一旦数据变更后,则需要重新训练。 而GraphSAGE则是一种归纳式学习,也就是说它的目标是训练得到权重矩阵的参数。 计算节点 \(v\) 第 \(k\) 层的 embedding 流程为:
转载 2021-03-07 20:11:00
204阅读
2评论
【引言】在GCN的博文中我们重点讨论了图神经网络的逐层传播公式是如何推导的,然而,GCN的训练方式需要将邻接矩阵和特征矩阵一起放到内存或者显存里,在大规模图数据上是不可取的。其次,GCN在训练时需要知道整个图的结构信息(包括待预测的节点), 这在现实某些任务中也不能实现(比如用今天训练的图模型预测明天的数据,那么明天的节点是拿不到的)。GraphSAGE的出现就是为了解决这样的问题,这篇文中我们将
原创 2021-02-05 19:34:32
311阅读
GraphSAGE 源码解析
原创 2021-07-24 11:36:11
10000+阅读
relation也就是边 没有embedding​​supervised_train.py​​​ 是用节点分类的label来做loss训练,不能输出节点embedding,使用​​NodeMinibatchIterator​​​​unsupervised_train.py​​​ 是用节点和节点的邻接信息做loss训练,训练好可以输出节点embedding,使用​​EdgeMinibatchIter
原创 2022-07-19 12:00:13
126阅读
1.GraphSAGE本文代码源于 DGL 的 Example 的,感兴趣可以去 github 上面查看。阅读代码的本意是加深对论文的理解,其次是看下大佬们实现算法的一些方式方法。当然,在阅读 GraphSAGE 代码时我也发现了之前忽视的 GraphSAGE 的细节问题和一些理解错误。比如说:之前忽视了 GraphSAGE 的四种聚合方式的具体实现,对 Alogrithm 2 的算法理解也有问题
原创 2021-02-04 20:26:04
1521阅读
​这一节我们继续实现graphSAGE。 加载数据:load_cora.pyimport numpy as npimport scipy.sparse as spimport torchfrom sklearn.preprocessing import LabelBinarizerdef normalize_adj(adjacency): adjacency += sp.eye(adjacenc
转载 2020-08-23 20:54:00
685阅读
2评论
【引言】在GCN的博文中我们重点讨论了图神经网络的逐层传播公式是如何推导的,然而,GCN的训练方式需要将邻接矩阵和特征矩阵一起放到内存或者显存里,在大规模图数据上是不可取的。其次,GCN在训练时需要知道整个图的结构信息(包括待预测的节点), 这在现实某些任务中也不能实现(比如用今天训练的图模型预测明天的数据,那么明天的节点是拿不到的)。GraphSAGE的出现就是为了解决这样的问题,这篇文中我们将
原创 2022-10-19 10:46:02
46阅读
文章目录一、官方代码1.1 加载数据1.2 Unsupervised Loss1.3 Models1.4 评估与模型使用1.5 Main二、
原创 2022-08-25 11:12:20
268阅读
GraphSAGE----------归纳式学习框架
原创 2021-08-02 14:55:49
126阅读
今天看的论文是斯坦福大学的同学的论文《Inductive Representation Learning on Large Graphs》,于 2017 年发表于 NIPS,目前被引次数超过 1200 次。对于大规模网络图来说,低维的分布编码具有举足轻重的意义,但现有的诸多模型都属于直推式学习(transductive),其可以解决参与训练的节点的编码问题,但无法泛化到未知节点(即,如果有新节点加
原创 2021-02-04 20:34:50
866阅读
现有的诸多模型都属于直推式学习,其可以解决参与训练的节点的编码问题,但无法泛化到未知节点,针对这一痛点,斯坦福大学的同学提出了归纳式学习算法。
原创 2021-07-09 17:34:09
662阅读
GraphSage 算法原理介绍与源码浅析前言最近在做 Graph 相关的工作, 两年前做过一段时间, 想不到兜兜转转又回到
原创 2022-08-01 10:02:38
830阅读
1点赞
一:为什么要图采样?二Graphsage 采样代码实践GraphSage的PGL完整代码实现位于https://github.com/PaddlePaddle/PGL/tree/main...
原创 精选 2021-02-15 00:00:00
638阅读
学习心得(1)文章目录学习心得一、Introduction二、Related work三、Proposed method:G
非常的详细!
本文来自人工智能前沿讲习作为近来大火的图神经网络领域内的里程碑,Graph...
介绍英文题目:Inductive Representation Learning on Large Graphs中文题目:基于大图的归纳表示学习论文地址:https://arxiv.org/a
Proceedings of the 31st International Conference on Neural Information Processing Systems (CCF A类)年度:2017/06/07大型图中节点的低维嵌入已被证明在从内容推荐到识别蛋白质功能的各种预测任务中非常有用然而,大多数现有的方法要求图中的所有节点在嵌入的训练过程中都存在这些以前的
原创 2023-01-12 23:12:34
521阅读
E-GraphSAGE: A Graph Neural Network based Intrusion Detection System 介绍 总之,本文的主要贡献有两个: • 我们提出并实现了 E-GraphSAGE,它是 GraphSAGE 的扩展,它允许结合边缘特征/属性进行图表示学习。 这一 ...
转载 2021-10-27 12:26:00
541阅读
2评论
GraphSAGE(Graph SAmple and aggreGatE)是一种用于图数据的归纳式学习算法,由William Hamilton等人在2017年提出,以下是关于它的详细介绍:背景与动机传统的图神经网络(GNN)方法,如GCN等,在处理大规模图数据时存在计算复杂度高、难以扩展到新节点等问题。GraphSAGE旨在解决这些问题,它不依赖于对整个图的全局信息进行处理,而是通过对节点的邻居进
原创 8月前
1190阅读
  • 1
  • 2
  • 3
  • 4
  • 5