
摘要
知识图谱补全(Knowledge Graph Completion, KGC)的核心任务是利用已有信息填补知识图谱中缺失的三元组。基于文本的方法依赖于三元组的文本描述进行预测,但在实际应用中常因描述信息不足而导致预测精度下降,这一问题根植于数据集本身,难以仅通过模型设计加以解决。为应对上述挑战并保障数据的一致性,本文提出以下三方面改进:首先,利用大规模语言模型(Large Language Models, LLMs)生成语义连贯的三元组描述,有效弥合查询与答案之间的语义鸿沟;其次,引入逆关系构建对称图结构,从而扩充训练样本,增强模型的泛化能力;此外,充分挖掘知识图谱中固有的标签信息,对现有对比学习框架进行改进,使其转变为完全监督的学习范式。实验结果表明,所提方法在WN18RR和FB15k-237两个标准数据集上均取得显著性能提升。根据标准评估指标,该方法在WN18RR数据集上的Hit@1指标提升4.2%,在FB15k-237数据集上的Hit@3指标提升3.4%,充分验证了其优越性。