HyperAI
Back to Headlines

New Framework Enhances Robustness of Graph Neural Networks Against Attacks

2 days ago

近日,北京邮电大学的研究团队与合作者首次探讨了大语言模型在提高图神经网络(GNNs)对抗鲁棒性方面的潜力。研究结果显示,现有结合大语言模型的GNNs在面对对抗攻击时仍然较为脆弱。为此,研究团队提出了一种基于大语言模型的鲁棒图结构推断框架(LLM4RGNN),旨在增强GNNs的鲁棒性,并确保其在受到攻击时仍能保持高准确性。 该框架 LLM4RGNN 利用了大语言模型的超强理解与推理能力,通过改进图结构来提高GNNs对对抗攻击的抵抗能力。实验结果表明,LLM4RGNN 在面对拓扑攻击时显著提升了多种GNNs的鲁棒性。即便在扰动率达到40%的情况下,使用 LLM4RGNN 增强的GNNs仍然表现出优于原始未受攻击图的性能。 研究背景在于GNNs在对抗攻击中的脆弱性问题。GNNs由于其强大的表示学习能力,已经在社交网络分析、生物信息学、推荐系统和金融风险管理等多个领域得到广泛应用。然而,GNNs高度依赖图结构进行信息传播,攻击者只需通过少量的图结构修改(如添加或删除边),就能大幅降低模型的分类准确率,从而威胁到系统的稳定性和泛化能力。当前的防御方法大多依赖于模型架构设计或启发式规则来修复图结构,但效果有限。 研究团队注意到以ChatGPT为代表的大型语言模型在深度学习领域取得了显著成功,因此开始探索这些模型在GNNs领域的应用潜力。尽管现有研究表明大语言模型可以在一定程度上提升GNNs的鲁棒性,但当面对拓扑攻击时,GNNs的准确率平均下降了23.1%,显示出明显的脆弱性。为了进一步扩展大语言模型在此领域的潜力,研究团队提出了 LLM4RGNN 框架。 在具体应用场景中,LLM4RGNN展现出多方面的优势。首先,在金融风控与欺诈检测中,攻击者可能通过伪造交易关系来规避反欺诈模型。LLM4RGNN能够恢复被攻击的交易网络,确保金融风控模型在攻击环境下仍能有效运行,从而降低金融欺诈风险。其次,在社交网络安全方面,攻击者可能通过操纵好友关系来干扰内容推荐或热点话题趋势。LLM4RGNN能够识别并修复被攻击的社交网络结构,提高用户数据的可信度和平台的整体安全性。再次,在推荐系统中,用户-物品交互图常常受到数据污染的影响,例如虚假评分或僵尸用户操作。LLM4RGNN可以帮助推荐系统检测并修复被攻击的用户-物品关系,提升推荐的公平性和可信度。 该研究的相关论文《大模型能否提高图神经网络的对抗鲁棒性?》已被2025国际知识发现与数据挖掘大会(ACM SIGKDD Conference on Knowledge Discovery and Data Mining)接收。为了支持进一步的研究和应用,研究团队还利用GPT-4构建了一个开源指令数据集,包含对26,518条边的恶意性评估与分析。这个数据集可以用于微调任意的大语言模型,使其具备与GPT-4相当的图结构推理能力。 总的来说,LLM4RGNN框架为进一步提升GNNs在复杂环境中的鲁棒性和安全性提供了新思路,具有广泛的应用前景。

Related Links