上海交大团队推出CGformer:突破AI材料预测“近视”瓶颈,实现全局视野精准设计
L’équipe de l’Université de technologie de Shanghai (Shanghai Jiao Tong University) a développé une nouvelle méthode d’IA pour la conception de matériaux, baptisée CGformer, qui surmonte une limitation fondamentale des réseaux de neurones graphiques cristallins traditionnels — leur « myopie » algorithmique. En introduisant un mécanisme d’attention globale inspiré du modèle Transformer, cette approche révolutionne la prédiction des propriétés des matériaux en permettant à l’IA de capturer les interactions à longue portée entre atomes, essentielles pour déterminer des caractéristiques critiques comme la conductivité ionique, la stabilité thermodynamique ou les performances mécaniques. Jusqu’à présent, les modèles d’IA comme CGCNN ou ALIGNN, bien que puissants, fonctionnent selon un principe limité : chaque atome ne peut échanger des informations qu’avec ses voisins immédiats via des connexions chimiques directes. Cette restriction, similaire à un champ de vision restreint, empêche la modélisation des effets coopératifs à distance, qui sont pourtant déterminants dans des systèmes complexes comme les électrolytes solides à ions sodium à haute entropie. Cette « myopie » compromet la précision des prédictions et freine l’innovation dans la découverte de nouveaux matériaux. Face à ce défi, l’équipe du laboratoire AIMS-lab (Artificial Intelligence & Microstructure Lab) de l’Université de technologie de Shanghai a conçu CGformer, une architecture innovante qui fusionne la représentation graphique des cristaux avec le mécanisme d’attention globale du Transformer. Contrairement aux approches classiques où l’information circule par étapes entre voisins, CGformer permet à chaque atome de « voir » directement tous les autres atomes du système, indépendamment de leur distance. Cette capacité de « perception globale » transforme la dynamique d’information : au lieu d’un échange progressif et localisé, on passe à une synchronisation instantanée et complète — une véritable « diffusion à l’échelle du graphe ». Le succès de CGformer repose sur plusieurs innovations clés : - Encodage de centralité pour évaluer l’importance topologique de chaque atome ; - Encodage spatial pour intégrer les distances réelles entre atomes ; - Encodage d’arête pour capturer les caractéristiques des liaisons chimiques. Ces éléments, combinés à une attention multi-têtes, permettent au modèle de détecter des corrélations complexes à longue portée, essentielles pour prédire avec précision les performances des matériaux. Pour valider son efficacité, l’équipe a testé CGformer sur un défi particulièrement exigeant : la découverte d’électrolytes solides à ions sodium à haute entropie (HE-NSEs), dont la structure est extrêmement désordonnée et dont la conductivité dépend fortement des interactions à longue distance. Les résultats ont été concluants : - CGformer a surpassé les modèles existants (CGCNN, ALIGNN, SchNet) en précision, avec une réduction de 25,7 % de l’erreur absolue moyenne (MAE) sur le jeu d’entraînement et près de 10 % sur le jeu de test. - En utilisant seulement 238 données calculées pour un ajustage fin (fine-tuning), le modèle a atteint un MAE de 0,0361 — une performance remarquable dans un contexte de données rares. - Enfin, à partir de plus de 140 000 combinaisons potentielles, CGformer a identifié 6 matériaux prometteurs, dont la synthèse expérimentale a confirmé des conductivités ioniques atteignant 0,256 mS/cm à température ambiante, largement supérieures aux matériaux de référence. Cette étude, publiée dans Matter, met en lumière une nouvelle voie pour l’IA en science des matériaux : non pas une simple application de techniques existantes, mais une innovation architecturale fondamentale. CGformer démontre que la conception d’algorithmes physiquement significatifs, capables de refléter la complexité des systèmes réels, est la clé de la prochaine révolution dans la découverte de matériaux. Le laboratoire AIMS-lab, dirigé par les professeurs Li Jinjin et Huang Fuqiang, a déjà développé d’autres outils avancés comme T-transformer, Deep-transfer, CEEM et AlphaMat, et s’inscrit dans une démarche globale d’innovation « de la recherche fondamentale à l’industrialisation ». Grâce à des solutions basées sur l’apprentissage par transfert et des architectures contrôlées localement, le laboratoire soutient la transformation numérique des PME, en proposant des solutions d’IA à faible coût et à faible consommation de données. CGformer n’est pas seulement un outil — c’est un nouveau paradigme. Il ouvre la voie à une conception accélérée de matériaux pour l’énergie, la catalyse, la thermoelectricité ou même la supraconductivité à température ambiante. L’IA, dans ce contexte, n’est plus un simple assistant, mais un véritable partenaire créatif dans la science des matériaux.