论文链接:http://papers.nips.cc/paper/7287-structure-aware-convolutional-neural-networks.pdf
TL;DR
文章中提出了一种新的卷积方式:structure-aware convolution, 这种方式能够同时处理Euclidean和non-Euclidean结构的数据.
Dataset/Algorithm/Model
作者利用单变量函数filters(univariate functions)来代替传统的filters, 因此能够对局部不同结构的数据进行卷积运算. 至于单变量函数, 根据函数近似理论, 能够通过切比雪夫多项式来近似.
传统的filter运算:
yˉi=wTxi=i−m<j<i+m∑wj−i+m⋅xj,i∈{1,2,⋯,n}
假设
yˉi=fRTxi=i−m<j<i+m∑f(j−i+m)⋅xj,i∈{1,2,⋯,n}
由于vertex i的局部特征由neighbors及其自身表示:
Ri={rji∣eji∈E},i∈{1,2,⋯,n}
所以structure-aware convolution可以表示为:
yˉi=fRiTxi=eji∈E∑f(rji)⋅xj,i∈{1,2,⋯,n}
卷积图示:
主要的两个创新点
用切比雪夫多项式来近似单变量函数filters
yi=eji∈E∑f(rji)⋅xj=eji∈E∑(k=1∑tvk⋅hk(rji))⋅xj,i∈{1,2,⋯,n}
局部结构特征学习
Ri={rji=T(xjTMxi)∣eji∈E},i∈{1,2,⋯,n}
简单理论解释:
Experiment Detail
在non-euclidean数据上准确率和效率都有所提升.
Thoughts
和以前的GCN类似, 都是用切比雪夫多项式来近似卷积操作,只是多项式的项数选择不同. 感觉唯一的创新点是用学习的方法来进行局部特征学习, 形式和基于谱图论的方法差不多.
联系作者