新框架 LLM4RGNN 提升图神经网络对抗攻击的鲁棒性,有效保护社交网络和金融风控系统
近日,北京邮电大学的研究团队联合合作者在图神经网络(GNNs)的对抗鲁棒性研究领域取得了重要突破。研究团队注意到,尽管 GNNs 在社交网络分析、生物信息学、推荐系统和金融风控等领域的表示学习能力非常强,但这些模型在面临对抗攻击时表现极为脆弱。攻击者可以通过少量的图结构篡改(如添加或删除边),显著降低 GNNs 的分类准确性,威胁到模型的稳定性和泛化能力。 为了应对这一问题,研究团队提出了一个基于大模型的鲁棒图结构推断框架——LLM4RGNN(Large Language Model for Robust Graph Neural Networks)。该框架利用大模型的强理解和推理能力,增强了 GNNs 的鲁棒性。LLM4RGNN 是一个通用框架,适用于多种大模型和 GNNs,能够有效识别并修复被攻击的图结构。 研究团队进行了大量的实验,验证了 LLM4RGNN 的效果。结果显示,即便在扰动率高达 40% 的情况下,采用 LLM4RGNN 的 GNNs 准确率不仅没有大幅下降,甚至有时还超过了未被攻击情况下的表现。此外,研究团队还利用 GPT-4 构建了一个开源指令数据集,包含 26,518 条边的恶意性评估及分析,可用于微调任意的大模型,使其具备 GPT-4 同样的鲁棒图结构推理能力。 这项研究的背景是 GNNs 在对抗攻击下的脆弱性,以及大模型在深度学习领域的广泛应用。传统的防御方法要么依赖复杂的模型架构设计,要么基于简单的启发式规则修复图结构,但效果并不理想。研究团队通过对大模型的深入探索,发现其在提升 GNNs 鲁棒性方面具有巨大潜力,从而提出了 LLM4RGNN 这一创新解决方案。 在应用前景方面,LLM4RGNN 展现了广泛的应用价值。首先,在金融风控和欺诈检测中,攻击者可能通过伪造交易关系来规避反欺诈模型,LLM4RGNN 能够恢复受攻击的交易网络,确保金融风控系统的有效性。其次,在社交网络安全方面,攻击者可能通过操纵好友关系干扰内容推荐和热点话题趋势,LLM4RGNN 能够修复受损的社交网络结构,提高平台的安全性。最后,在推荐系统中,面对虚假评分和僵尸用户的操纵,LLM4RGNN 可以帮助检测并修复受攻击的用户-物品关系,提高推荐的公平性和可信度。 近日,相关研究成果已发表在国际知名的 2025 年 ACM SIGKDD 知识发现与数据挖掘大会上,引起广泛关注。业内人士认为,LLM4RGNN 的提出不仅开创了用大模型增强图对抗鲁棒性的新路径,也为提升网络安全性提供了有力工具。北京邮电大学是一所在信息通信领域具有深厚研究基础的高校,此次研究再次彰显了该校在前沿科技领域的创新能力。