
摘要
由Kipf和Welling最近提出的图卷积网络(Graph Convolutional Networks, GCN)是一种有效的半监督学习图模型。然而,该模型最初设计时假定训练数据和测试数据同时存在。此外,跨层递归邻域扩展在处理大型密集图时对时间和内存提出了挑战。为了放宽测试数据必须同时可用的要求,我们将图卷积解释为在概率测度下嵌入函数的积分变换。这种解释允许使用蒙特卡洛方法一致地估计积分,从而导致我们在本工作中提出的批量训练方案——FastGCN。通过引入重要性采样,FastGCN不仅提高了训练效率,而且在推理方面也表现出良好的泛化能力。我们展示了一整套实验结果,以证明其相对于GCN及相关模型的有效性。特别是,FastGCN的训练效率比现有方法高出几个数量级,而预测准确性仍然相当高。