
摘要
卷积神经网络(CNNs)在处理图像等网格状数据方面取得了巨大成功,但在从更通用的数据如图中学习时面临巨大挑战。在CNNs中,可训练的局部滤波器使得高级特征的自动提取成为可能。滤波器的计算需要感受野中有固定数量的有序单元。然而,在通用图中,相邻单元的数量既不是固定的,也不是有序的,这阻碍了卷积操作的应用。本文通过提出可学习图卷积层(LGCL)来解决这些挑战。LGCL根据值排序自动为每个特征选择固定数量的相邻节点,以将图数据转换为一维格式的网格状结构,从而使得可以在通用图上应用常规卷积操作。为了在大规模图上进行模型训练,我们提出了一种子图训练方法,以减少先前方法在图卷积中遇到的过度内存和计算资源需求。我们在Cora、Citeseer、Pubmed引文网络和蛋白质-蛋白质相互作用网络数据集上的节点分类任务实验结果表明,我们的方法在半监督和全监督学习设置下均能实现持续优于其他方法的表现。此外,我们的结果还表明,使用子图训练策略的方法比先前的方法更为高效。