
摘要
图上的链接预测是一个基础性问题。子图表示学习方法(Subgraph Representation Learning, SGRL)通过将链接预测转化为对链接周围子图的图分类任务,在链接预测任务中取得了当前最优的性能。然而,SGRL方法在计算上开销较大,由于其依赖复杂的子图级操作,难以扩展到大规模图数据。为突破SGRL的可扩展性瓶颈,本文提出一类新型SGRL方法,称为可扩展简化子图表示学习(Scalable Simplified SGRL,简称S3GRL)。S3GRL旨在实现更快的训练与推理速度,通过简化每个链接子图中的消息传递与聚合操作,显著降低计算复杂度。作为一种可扩展性框架,S3GRL兼容多种子图采样策略与扩散算子,能够有效模拟计算开销较高的传统SGRL方法。本文提出了多个S3GRL的具体实例,并在中小规模至大规模图数据上进行了充分的实验验证。大量实验结果表明,所提出的S3GRL模型在显著降低计算开销(例如实现数倍的推理与训练加速)的同时,能够有效保持甚至在某些情况下提升原始SGRL的性能,实现了性能与效率的双赢。