
摘要
知识图谱(Knowledge Graph, KG)链接预测旨在基于图谱中已有的事实推断出新的事实。近期研究表明,相较于仅依赖查询信息,利用节点的图邻域信息(通过图神经网络,GNNs)能够提供更为丰富的语义线索。然而,传统的KG链接预测GNN模型通常在全图上遵循标准的消息传递范式,这导致了冗余计算、节点表示过度平滑,同时限制了模型的表达能力。在大规模知识图谱上,为推理任务从整个图中聚合有用信息变得计算成本高昂。为解决现有KG链接预测框架的局限性,本文提出一种新颖的“检索-阅读”(retrieve-and-read)框架:首先,针对查询检索出相关的子图上下文;随后,通过一个高容量的阅读器对查询与上下文信息进行联合推理。作为该框架的具体实现,我们设计了一种基于Transformer的新型GNN作为阅读器,该模型融合了基于图结构的注意力机制以及查询与上下文之间的交叉注意力,实现深层次的信息融合。这种简洁而高效的设计使模型能够聚焦于与查询高度相关的关键上下文信息。在两个标准KG链接预测数据集上的实验结果表明,所提出方法具有优异的性能,达到了当前先进水平。此外,我们的分析为在该框架内设计更优的检索模块提供了有价值的洞见,有助于未来研究的进一步优化。