背景知识
如要了解谱图卷积,首先需要学习图理论基础和图中如何进行傅里叶变换。
对于傅里叶变换,本文不再赘述。详细内容可以参考:
图上的傅立叶变换
傅立叶变换是将时域的函数转换成频域上的函数,是对于同一个函数的不同视角,数学定义如下:
F(w)=F(f(t))=∫f(t)e−iwtdt(1)
公式(1)表示的意义是傅立叶变换是时域信号f(t) 与基函数e−iwt 的积分。
为什么选择e−iwt作为基函数?原因有二:
- e−iwt是正交函数系。
- e−iwt是拉普拉斯算子Δ的特征函数。
至于e−iwt由何种推导得来的请参考: 理解傅里叶变换
先解释下拉普拉斯算子Δ的定义
在数学中,拉普拉斯算子(Laplacian)是由欧几里得空间中的一个函数的梯度的散度给出的微分算子,记为Δf=∇2f=∇⋅∇f,表示n维空间笛卡尔坐标系xi中所有非混合二阶偏导数之和,其数学定义为
Δ=i=1∑n∂2xi∂2(2)
这表达式什么意思呢?以二维空间为例:
Δf(x,y)=∂x2∂2f+∂y2∂2f=[f(x+1,y)+f(x−1,y)−2f(x,y)]+[f(x,y+1)+f(x,y−1)−2f(x,y)]=f(x+1,y)+f(x−1,y)+f(x,y+1)+f(x,y−1)−4f(x,y)
上式中每一项的系数就是拉普拉斯在二维图像中的卷积核:

再解释下e−iwt为何拉普拉斯算子Δ的特征函数
拉普拉斯算子的特征方程为:
Δg=λg(3)
代入函数e−iwt可得:
Δe−iwt=∂2xi∂2e−iwt=∂2t∂2e−iwt=−w2e−iwt(4)
其中特征值λ=−w2 ,即w 和特征值λ 密切相关。
由上述证明可得结论:傅立叶变换是时域信号与拉普拉斯算子特征函数的积分。
从整体推特殊,将以上的结论推广到(离散)图中可知:图上的傅立叶变换就是时域信号与图拉普拉斯算子特征函数的求和!
对于傅里叶变换式(1),将特征函数转换为特征向量(特征函数可以认为是无限维的特征向量),将积分转换为求和,那么N个顶点图上的傅立叶变化表达式为:
F(λl)=f(λl)=i=1∑Nf(i)∗ul(i)(5)
其中,λl 为图拉普拉斯算子第l 个特征值,ul 为第l 个特征值对应的特征向量,公式(5)是
λl 对应的傅立叶变换,对于图拉普拉斯算子,具有N个特征值,将式 (5) 全部分量展开可得:
⎝⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎛f^(λ1)f^(λ2)⋮f^(λN)⎠⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎞=⎝⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎛u1(1)u2(1)⋮uN(1)u1(2)u2(2)⋮uN(2)……⋱…u1(N)u2(N)⋮uN(N)⎠⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎞⎝⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎛f(1)f(2)⋮f(N)⎠⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎞(6)
将公式(6)写成矩阵形式即为:
f=UTf(7)
此处U为拉普拉斯谱分解的正交矩阵。
最后再来看看图中拉普拉斯算子的定义:
L=D−W(8)
其中W是邻接矩阵,D是度矩阵,Di,i等于W矩阵的第i行的和,非对角线上元素为 0,D是个对角矩阵,这个图谱理论关于图拉普拉斯算子的的定义。详细推到过程参考:图拉普拉斯算子为何定义为 D-W

拉普拉斯矩阵是实对称矩阵,实对称矩阵一定可以用正交矩阵进行正交相似对角化(特征分解):
L=U⎝⎜⎜⎜⎜⎜⎛λ1⋱λN⎠⎟⎟⎟⎟⎟⎞U−1=U⎝⎜⎜⎜⎜⎜⎛λ1⋱λN⎠⎟⎟⎟⎟⎟⎞UT(9)
U 为特征向量构成的正交矩阵,而正交矩阵的逆等于正交矩阵的转置:U−1=UT
假定λ1,⋯,λn 从小到大排序,其对应的特征向量为u1,⋯,un,特征值越小,对应的特征向量越平稳,这和傅立叶变换中频率的定义是类似的。下图是对 random sensor network 做特征值分解后的特征向量分布展示,可以看到特征值越小,对应的特征向量越平滑。

图上傅里叶逆变换
有了傅立叶变换,如何将频率函数变换为时域函数呢?这是傅立叶逆变换需要干的事情,公式如下:
F−1[F(w)]=2π1∫F(w)e−iwtdw(10)
公式(10)和公式(1)类似,差一个常数系数。公式(1)积分之后是一个关于w 的函数,公式 (10) 对w 积分后是关于t 的函数,从频域变换到了时域,图上傅立叶变换类似为:
⎝⎜⎜⎜⎜⎜⎜⎜⎜⎜⎛f(λ1)f(λ2)⋯f(λN)⎠⎟⎟⎟⎟⎟⎟⎟⎟⎟⎞=⎝⎜⎜⎜⎜⎜⎛u1(1)⋯u1(1)u1(2)…u1(2)……u1(N)…u1(N)⎠⎟⎟⎟⎟⎟⎞⎝⎜⎜⎜⎜⎜⎜⎜⎜⎜⎛f^(λ1)f^(λ2)…f^(λN)⎠⎟⎟⎟⎟⎟⎟⎟⎟⎟⎞(11)
写成矩阵形式:
f=UU−1f=UUTf=Uf^(12)
上述内容详述了如何在图中进行傅里叶变换和逆变换,下面就是主角**图卷积网络 GCN **上场了!
下篇更新的文章将讲述三代图卷积网络的前世今生!
联系作者
