Une découverte clé : la mémoire, pas la logique, est à la source des capacités arithmétiques des réseaux neuronaux
Des chercheurs ont réussi à isoler la mémoire de la capacité de raisonnement dans les réseaux de neurones artificiels, révélant une séparation nette entre ces deux fonctions fondamentales. Leur étude, menée sur des modèles d’intelligence artificielle, montre que la capacité à effectuer des calculs arithmétiques simples — comme additionner ou multiplier des nombres — repose principalement sur des voies de mémoire, et non sur des circuits logiques. Les scientifiques ont analysé le fonctionnement interne de plusieurs modèles d’IA, en particulier des réseaux de neurones profonds entraînés pour résoudre des problèmes mathématiques. En utilisant des techniques de décomposition et d’analyse fine des activations neuronales, ils ont identifié des sous-ensembles spécifiques de neurones qui se déclenchent lorsqu’un modèle doit rappeler des résultats préalablement appris, comme les tables de multiplication. Ces voies de mémoire agissent comme une base de données interne, permettant à l’IA de répondre rapidement à des questions arithmétiques sans passer par un processus de raisonnement étape par étape. En revanche, les tâches nécessitant une logique complexe — par exemple, résoudre des énigmes ou déduire des relations causales — impliquent des circuits différents, plus distribués et adaptatifs. Ces derniers ne dépendent pas de la mémorisation directe, mais de la capacité à combiner des informations, à faire des inférences et à s’adapter à de nouveaux contextes. Cette découverte a des implications importantes pour la compréhension de l’intelligence artificielle. Elle suggère que, contrairement à ce que l’on pensait parfois, les performances en mathématiques d’un modèle ne reflètent pas nécessairement une véritable compréhension du raisonnement. Beaucoup d’IA réussissent à donner des réponses correctes non pas parce qu’elles raisonnent, mais parce qu’elles ont mémorisé des associations entre questions et réponses. Les chercheurs soulignent que cette séparation entre mémoire et raisonnement pourrait aider à concevoir des systèmes plus transparents et plus fiables. En identifiant précisément où se situent les processus de mémorisation, il devient possible de corriger les biais, d’améliorer la robustesse des modèles et de mieux comprendre leurs limites. De plus, cette avancée ouvre la voie à de nouvelles approches d’entraînement, où l’on pourrait former l’IA à raisonner de manière indépendante, sans dépendre exclusivement de la mémorisation. En somme, cette étude met en lumière un aspect fondamental du fonctionnement des réseaux de neurones : la mémoire, bien qu’essentielle, n’est pas synonyme de compréhension. Comprendre cette distinction est crucial pour développer des intelligences artificielles plus éthiques, plus fiables et véritablement capables de penser, et non seulement de se souvenir.
