Shanghai-Team entwickelt AI-Modell CGformer zur präzisen Vorhersage von Materialeigenschaften
上海交通大学人工智能与微结构实验室(AIMS-lab)团队研发出新型AI材料设计模型CGformer,成功突破传统晶体图神经网络在材料性能预测中的“近视”瓶颈。该模型通过引入Transformer架构的全局注意力机制,使AI能够跨越原子间距离限制,实现对晶体结构的全图感知,显著提升对复杂材料体系中长程相互作用的捕捉能力。传统晶体图网络如CGCNN、ALIGNN依赖近邻原子信息传递,感受野受限,难以准确预测依赖长程效应的性能指标,如离子电导率、热力学稳定性等。CGformer则通过多头注意力模块,让每个原子可直接与图中所有其他原子交互,实现“全场广播”式信息传递,并结合中心性编码、空间编码与边编码,精准建模原子间的拓扑与物理关系。在高熵钠离子固态电解质(HE-NSEs)这一结构高度无序、对全局信息依赖极强的挑战性任务中,CGformer仅用238个新计算数据微调,便实现0.0361的交叉验证平均绝对误差,成功从14万种候选材料中筛选出6种高性能候选物,并经实验合成验证,其室温离子电导率最高达0.256 mS/cm,远超现有基准材料。在多个公开数据集上的对比测试中,CGformer在训练集和测试集上的预测误差分别较CGCNN降低25.7%和近10%,在效率与精度上均优于ALIGNN、SchNet等主流模型。该成果以“CGformer: Transformer-Enhanced Crystal Graph Network with Global Attention for Material Property Prediction”为题发表于顶级期刊Matter,李金金教授与黄富强教授为通讯作者,陶科豪与李佳聪为共同第一作者。 CGformer的突破不仅体现在算法创新,更在于其构建了从基础研究到产业落地的闭环路径。实验室依托“算法研发—平台开发—产业验证”全链条体系,已推出AlphaMat、AphlaBio等百余款AI驱动设计工具,并首创全球首个“时间维度AI工业大脑”ManuDrive,赋能智能制造。其核心算法如T-transformer、Deep-transfer、CEEM、CGformer等,持续攻克材料设计中的小样本、高复杂性难题,相关成果发表于Nature、Cell子刊、Advanced Materials等顶刊,与多家上市公司建立联合研发机制,推动AI在新能源、半导体、高端制造等领域的规模化应用。该研究标志着AI材料科学正从“工具辅助”迈向“范式革新”,以物理可解释性为驱动的算法创新,正在重塑新材料研发的底层逻辑。 业内专家评价,CGformer的提出标志着AI材料设计进入“全局感知”新阶段,其融合图结构与Transformer的架构思路,为解决长程相互作用建模难题提供了通用范式。该模型不仅适用于固态电解质,未来可广泛拓展至锂电正极、热电材料、光催化体系等关键领域,有望加速室温超导、高效储能等颠覆性材料的发现进程。在数据稀缺与计算成本高昂的现实挑战下,其小样本迁移学习能力尤为关键,为中小型企业提供了低成本、高效率的AI部署路径。这一成果彰显了中国在AI for Science领域的前沿探索能力,也预示着“算法驱动科学发现”的新时代正在到来。