i∥∥∥∥hj∥∥∥∥gk]然后学习每个三元组的重要性如下:(套路?)
bijk= LeakyReL U (W2cijk)
基于每个元组的重要性,然后利用softmax计算了attention value如下式:
αijk=softmaxjk(bijk)=∑n∈Ni∑r∈Rinexp(binr)exp(bijk)
基于以上得到的注意力值,attention layer 实体嵌入特征输出的结果如下:
hi′=σ⎝⎛j∈Ni∑k∈Rij∑αijkcijk⎠⎞
加入multi-head attention,则上述计算公式则变为一下形式:
hi′=∥m=1Mσ⎝⎛j∈Ni∑αijkmcijkm⎠⎞
对于relation的嵌入学习,文中只是简单陈述了一个线性变换如下:(有点意料之外)
G′=G.WR
模型的最后一层做了一个全局平均:
hi′=σ⎝⎛M1m=1∑Mj∈Ni∑k∈Rij∑αijkmcijkm⎠⎞
为了防止丢失原本的特征,文中再将学习的特征加上了一个原本的特征:
H′′=WEHt+Hf
损失函数为hinge-loss:
dtij=∥∥∥∥hi+gk−hj∥∥∥∥1
L(Ω)=tij∈S∑tij′∈S′∑max{dtij′−dtij+γ,0}
对于以上的特征,文中使用了ConvKB作为一个Decoder对元组进行评分:
f(tijk)=(m=1∏ΩReLU([hi,gk,hj]∗ωm))W
损失函数如下:
L=tijk∈{S∪S′}∑log(1+exp(ltijk⋅f(tijk)))+2λ∥W∥22
ltijk={1−1 for tijk∈S for tijk∈S′
Experiment Detail
联系作者
版权声明: 本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来自 梦家博客! 打赏
wechat
alipay