GNN(图神经网络)
- 图卷积的谱方法
- 图(Graph)
- 图拉普拉斯矩阵(Graph Laplacian)
- 正则化的图拉普拉斯矩阵(Normalized graph Laplacian)
- 图傅里叶基(Fourier basis of graph G G G)
- 图傅里叶变换(Graph Fourier transform)
- 谱域的卷积定理(Convolution theorem)
- 谱域的图卷(Spectral Graph CNN)
- 切比雪夫多项式近似图卷积核(ChebyNet)
- 图小波神经网络(Graph wavelet neural network-GWNN)
- 图卷积的空间方法
- 初步的图重构的方法
- GraphSAGE
- Graph Convolution Network-GCN
- Graph Attention Network-GAT
- 普通的空间方法框架-MoNet
- 图卷积谱方法和空间方法的关系
- 谱方法是空间方法的特例
- 图的卷积核
- 改进切比雪夫方法
- 方法对比
- 图池化(Graph Pooling)
- 图粗化(Graph coarsening)
- 节点选择(Node selection)
图卷积的谱方法
图(Graph)
每个节点都有d维的特征,X为节点的特征矩阵,X的每一列可以看作定义在n个节点的图上的信号。(信号处理)
图拉普拉斯矩阵(Graph Laplacian)
定义了图上的导数,刻画了信号在图上的平滑程度。
正则化的图拉普拉斯矩阵(Normalized graph Laplacian)
为单位矩阵,的每个元素如下:
图傅里叶基(Fourier basis of graph )
假如图上有n个节点,每个节点有一个取值,图上的一个信号就是一个n维度的向量,我们需要把这个n维度的向量变换到新的域里边去,那就需要一组基,这组基呢就是拉普拉斯矩阵的n个特征向量。它的n个特征向量就构成了一个n维空间,且n个特征向量正交的,这是由拉普拉斯矩阵性质决定的。我们所需要做的就是把这信号x投影在这n个基上,就相当于,x在新的这组基下的投影,就是这个原始信号在谱域的表达。如何转换回,需要对其进行逆变换。
- 图拉普拉斯L可对角化:
图傅里叶变换(Graph Fourier transform)
图傅里叶变换:
图傅里叶逆变换:
谱域的卷积定理(Convolution theorem)
两个信号的卷积,可以看成他们傅里叶变换后的点积。
根据卷积定理,给定一个x作为输入,y作为卷积核,图卷积可表示为
【对整体进行傅里叶逆变换((对x进行傅里叶变换)点乘(对y进行傅里叶变换))】
所以可进一步表示为:
谱域的图卷(Spectral Graph CNN)
h-非线性变换。
切比雪夫多项式近似图卷积核(ChebyNet)
图小波神经网络(Graph wavelet neural network-GWNN)
图卷积的空间方法
初步的图重构的方法
GraphSAGE
Graph Convolution Network-GCN
Graph Attention Network-GAT
普通的空间方法框架-MoNet
图卷积谱方法和空间方法的关系
谱方法是空间方法的特例
图的卷积核
信号变换的过程
改进切比雪夫方法
方法对比
图池化(Graph Pooling)
图粗化(Graph coarsening)
节点选择(Node selection)