上海交大团队推出CGformer:突破晶体图网络局限,全局注意力助力AI精准预测新材料性能
上海交通大学人工智能与微结构实验室(AIMS-lab)团队研发出全新AI材料设计模型CGformer,成功突破传统晶体图神经网络“近视”瓶颈,实现对复杂晶体材料性能的高精度预测。该模型通过引入Transformer的全局注意力机制,使AI能够“全图感知”晶体结构,不再局限于近邻原子间的信息传递,从而有效捕捉长程原子相互作用,显著提升对离子输运、热稳定性等关键性能的预测能力。 传统晶体图网络如CGCNN、ALIGNN等虽在材料性能预测中广泛应用,但受限于局部信息交互机制,难以建模远距离原子协同效应,导致预测精度受限。CGformer则通过融合晶体图表示与Graphormer的全局注意力架构,实现原子间的跨距离直接信息交互,相当于将“邻里对话”升级为“全场广播”。同时,模型创新性引入中心性编码、空间编码和边编码,精准刻画原子在结构中的拓扑位置、距离及化学键特征,进一步增强对复杂材料体系的建模能力。 为验证其性能,团队以结构高度无序的高熵钠离子固态电解质(HE-NSEs)为挑战场景,该材料对全局感知能力要求极高。实验表明,CGformer在2300个钠离子导体数据集上的预测误差比CGCNN降低25.7%(训练集)和近10%(测试集),在ALIGNN和SchNet等先进模型中也表现领先。更关键的是,仅用238个新计算数据进行微调,结合迁移学习,CGformer即达到极低的交叉验证误差(MAE=0.0361),展现出强大小样本学习能力。 最终,基于CGformer的筛选,团队从超过14万种组合中成功识别出6种高性能候选材料并完成实验合成,其室温离子电导率最高达0.256 mS/cm,显著优于现有基准材料。这一成果不仅验证了模型的预测可靠性,更实现了从AI预测到真实材料制备的闭环突破。 CGformer的提出,标志着AI材料设计从“局部感知”迈向“全局洞察”的关键跃迁。该研究以“CGformer: Transformer-Enhanced Crystal Graph Network with Global Attention for Material Property Prediction”为题发表于顶级期刊Matter。论文通讯作者为李金金教授和黄富强教授,博士生陶科豪与李佳聪为共同第一作者。该工作为AI驱动的材料科学提供了可迁移、可扩展的算法框架,未来有望广泛应用于锂电材料、热电材料、光催化等领域,推动“AI for Science”向“Science for Industry”深度转化。