
摘要
图结构数据(如社交网络、功能脑网络、基因调控网络和通信网络)引发了将深度学习技术推广到图域的兴趣。本文旨在设计适用于可变长度图的神经网络,以解决诸如顶点分类、图分类、图回归和图生成任务等学习问题。现有的大多数研究都集中在利用递归神经网络(RNNs)来学习图的有意义表示,而最近则引入了新的卷积神经网络(ConvNets)。在本工作中,我们希望严格比较这两种基本架构在解决图学习任务中的表现。我们回顾了现有的图RNN和ConvNet架构,并提出了LSTM和ConvNet向任意大小图的自然扩展方法。随后,我们在两个基本的图问题上设计了一组分析控制实验,即子图匹配和图聚类,以测试不同的架构。数值结果显示,所提出的图ConvNets比图RNNs准确率高3-17%,速度快1.5-4倍。此外,图ConvNets比变分(非学习)技术准确率高36%。最后,最有效的图ConvNet架构采用了门控边和残差机制。残差机制在多层架构的学习中起着至关重要的作用,因为它提供了10%的性能提升。