图卷积网络
图卷积网络 (Graph convolutional net, GCN) 能够聚合图中的单跳或多跳邻域信息更好学习到图结构。或者说调节图上的平滑度。前置知识核心要素标准化图拉普拉斯矩阵Lnorm I− D−1/2AD−1/2 其中A是邻接矩阵D是对角度或者强度矩阵。Lnorm有nA的节点数个正交的特征向量并且特征值全非负。L U ΛU T其中U是特征向量矩阵Λ是对角特征值矩阵。假设有一个反映图上每个节点的特征的向量x可以通过下面的公式反映图上的平滑度其中a和b代表不同节点。Aa,b就是连接a和b之间的连接强度而da或db就是a或者b节点的强度。可以发现当存在连接的两个节点特征值越接近图上越平滑这个值xTLx越小。如果L不是标准化而是原始的图拉普拉斯矩阵L D-A 括号内的根号d就直接舍弃不再归一化节点度的影响。归一化的话高度节点的变化对于xTLx的影响就减小。而特征值和特征向量的关系又可以写成下面的关系也就是说特征值越小的特征向量代表了图上的低频成分也就是最平滑的成分。因此图拉普拉斯矩阵的特征向量就适合作为图傅里叶变换的正交基。图傅里叶变换x尖的每个元素就是图上不同的频率成分的幅值然后图逆傅里叶变换如下可以通过一个滤波器来控制高频和低频成分其中是哈达玛积。UTf是卷积核通过控制图在频域上的表示来实现滤波。滤波之后再图傅里叶逆变换回去。图卷积网络的发展1.Spectral CNN把UTf换成gθ就是以θn为对角元素的对角矩阵。uiuiT就是一个过滤器只提取出x的ui对应的频率成分然后θ就是抑制还是增强这个频率成分。优点非常直观缺点要学习的参数比较多有多少个节点就要学习多少个θ参数2.ChebyNet把gθ换成下面的多项式展开然后卷积过程L的指数越大整合的跳数越多越能整合图上的信息。似乎是让图更平滑了最简单的GCN就是这ChebyNet的一阶近似。K 2且 α α0 -α1。α就是对这个图卷积后的特征进行增强或者抑制。为了整合节点对自己的影响Li 等人 (2019)在设计单层GCN时会给A加上I然后再构建标准化图拉普拉斯矩阵。问题λ越大对应的频率成分越高而如果跳数越多K越大则实际上会方法高频成分K对于大λ的增大作用强于小λ3.热核扩散用于抑制高频成分而放大低频成分。热核卷积核改为如下其中将卷积公式展开好处可以抑制高频成分因为λ越大代入到e^(-sλ)之后得到越小的值。取K 2热核卷积简化为如下公式s越大节点信息在图上扩散的时间越久越能整合更多节点的信息。落到下面的图就是圆圈越大。参考文献Graph Convolutional Networks using Heat Kernel for Semi-supervised Learning