⋅ReLU(AZW1)⋅W2由于公式 (2) 的特殊结构,因此提出新的图神经网络架构,注意这是解码器的结构:
X=f2((I−AT)−1f1(Z))(3)
其中f1,f2 表示Z,X 的非线性的转换函数;
Model Learning with Variational Autoencoder
对于给定的分布Z 和样本X1,⋯,Xn,生成模型的目标是最大化对数函数:
n1k=1∑nlogp(Xk)=n1k=1∑nlog∫p(Xk∣Z)p(Z)dZ
由于上式难以解决因此使用变分贝叶斯;
使用变分后验概率q(Z∣X) 来近似实际后验概率q(Z∣X)。网络优化的结果是 ELBO(the evidence lower bound)
LELBO=n1k=1∑nLELBOk
其中
LELBOk≡−DKL(q(Z∣Xk)∥p(Z))+Eq(Z∣Xk)[logp(Xk∣Z)]
基于 (3)式的解码器结构,对应的编码器结构为
Z=f4((I−AT)f3(X))(5)
其中f4,f3 表示f2,f1 的逆函数。
Loss Function
对于编码器,使用MLP表示f3和恒等映射表示f4,变分后验概率q(Z∣X) 是一个因子高斯分布均值MZ∈Rm×d 标准差SZ∈Rm×d,可以通过编码器来进行计算:
[MZ∣logSZ]=(I−AT)MLP(X,W1,W2)(6)
其中MLP(X,W1,W2):=ReLU(XW1)W2。
对于生成模型,使用恒等映射表示f1 MLP来表示f2,得到的似然p(X∣Z) 符合高斯分布均值为MX∈Rm×d 标准差为SX∈Rm×d,解码器的计算公式如下:
[MX∣logSX]=MLP((I−AT)−1Z,W3,W4)(7)
基于公式(6)(7),式(4)中的KL散度项为:
DKL(q(Z∣X)∥p(Z))=21∑i=1m∑j=1d(SZ)ij2+(MZ)ij2−2log(SZ)ij−1
重构准确率项为:
Eq(Z∣X)[logp(X∣Z)]≈L1∑l=1L∑i=1m∑j=1d−2(SX(l))ij2(Xij−(MX(l))ij)2−log(SX(l))ij−c
对于不同类型变量的处理论文中使用了不同的结构,详细参考原文推导过程。
Experiments
人工数据集
联系作者
版权声明: 本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来自 梦家博客! 打赏
wechat
alipay