
摘要
图卷积网络(GCNs)已成为学习图节点表示的重要工具。在大规模图上应用GCNs的主要挑战是其扩展性问题,即由于跨层时邻域的不可控扩展,导致计算和内存成本高昂。本文通过开发一种自适应逐层采样方法来加速GCNs的训练。通过自顶向下的方式逐层构建网络,我们在顶层的条件下对下一层进行采样,其中不同父节点共享采样的邻域,并且由于固定大小的采样,避免了过度扩展。更重要的是,所提出的采样器具有自适应性,并适用于显式方差减少,从而增强了我们方法的训练效果。此外,我们提出了一种新颖且经济的方法,通过引入跳跃连接来促进远距离节点之间的消息传递。大量的基准实验验证了我们的方法在分类准确性方面的有效性,并且该方法还具有更快的收敛速度。