的谱。那么代入谱图卷积的公式得到 SGC_LL 的计算公式如下:
~~竟然没有讲 中参数意义?~~下面的一些列操作就是为了计算更新的拉普拉斯矩阵。由于此处涉及 阶幂计算,论文中使用切比雪夫多项式展开计算。
Training Metric for Graph Update
对于图结构数据不适用图欧式距离来度量顶点间的相似性,因此在训练过程中需要根据任务特征来选择距离度量的方法。论文中用到的是马氏距离 (Mahalanobis Distance) 来度量图间的距离。
对于样本 和 间的马氏距离为:
上式中如果 是单位矩阵 那么就是欧式距离,在 AGCN 模型中 是对称的半正定矩阵 且 是可训练的权重参数。基于马氏距离得到高斯核计算公式如下:
对进行标准化后得到 dense 的邻接矩阵,在论文的模型中为了最小化预测损失需要基于图的拉普拉斯矩阵集合 优化。这一步没太看懂怎么优化?
Re-parameterization on feature transform
为了构造节点内部和外部的特征映射,论文中引入了重参数(Re-parameterization) 对谱图卷积后的输出结果进行变换,可以直接理解为增加了一个全连接层:
从这上面描述来看,现在每层 SGC-LL 具有参数,这应该就是 中参数 的含义吧!
Residual Graph Laplacian
为了加速训练过程并且提升所学到图结构的稳定性,论文中假设模型优化的图拉普拉斯矩阵 仅与原始的拉普拉斯矩阵 有微小的变化,因此模型直接学习残差图拉普拉斯矩阵而不是直接学习,类似于 ResNet 的思路。
综上每层 SGC_LL Layer 的过程如下所示:
这个地方得总结下为什么 SGC_LL Layer 可以接受不同大小的图作为输入,要不然有点乱!对于每个输入的图,首先根据马氏距离构造的高斯核函数得到重构的邻接矩阵,根据 得到残差拉普拉斯矩阵,再根据公式 (8) 谱图卷积方法进行计算。在这个过程中所有的参数不涉及图的大小维度 ,仅与图中节点的特征维度 有关。
上面的 SGC_LL 层可以对任意大小的图进行卷积操作,除了这一卷积层 AGCN 还采用了 Graph Max Pooling 、Graph Gather 和 Bilateral Filter 层。
Graph Max Pooling
最大池化层是根据当前节点的邻居节点的特征值来进行池化,对于节点 的新特征计算如下:
Graph Gather
图聚集层是将所有节点的特征向量进行相加来表示整个图特征。这一层适用于图级别的预测任务,除去这一层也可以得到每个节点的特征,适用于节点级别的预测任务。
Bilateral Filter
为了防止过拟合,论文中使用双边过滤器通过扩充拉普拉斯矩阵 的局部性来正则化 SGC_LL 的输出结果。这一点没有细讲计算方法,可以参考文中的引用文献。
首先是测试下训练过程中的收敛效果:
在化学分子数据集上的效果如下
点云数据集分类效果如下
在整个实验过程中其实性能提升并不大,主要的优势是可以对不同大小的图进行卷积。