Étude Harvard-MIT : Les Modèles IA Ne Sont Pas Prêts Pour les Découvertes Scientifiques
Une étude menée par des chercheurs de Harvard et du MIT apporte une nouvelle perspective sur une question cruciale concernant les grands modèles linguistiques (LLMs) et leur potentiel pour atteindre une intelligence artificielle générale (AGI) : peuvent-ils encoder des modèles du monde ou se contentent-ils de prédire le prochain élément d'une séquence ? Cette distinction entre l'explication et la prédiction est un problème fondamental qui dépasse le domaine de l'intelligence artificielle, touchant le cœur même de la science. Les auteurs ont entraîné un modèle AI basé sur les transformers pour faire des prédictions de mécanique orbitale, s'inspirant des découvertes de Johannes Kepler sur le mouvement des planètes autour du soleil. Leur objectif était de déterminer si ce modèle AI avait appris les lois de Newton sur la gravitation, qui expliquent les phénomènes sous-jacents. Si l'AI fait des prédictions correctes sans comprendre les lois de Newton, cela suggérerait qu'elle manque d'un modèle du monde complet. Une telle conclusion serait un argument convaincant contre l'idée que les modèles AI actuels peuvent véritablement comprendre le monde, ce qui pourrait représenter un sérieux obstacle à la réalisation de l'AGI. Le choix de la mécanique orbitale comme domaine d'étude n'est pas anodin. Historiquement, Isaac Newton a utilisé les observations de Kepler pour dériver ses lois de la gravitation. Par conséquent, ce sujet offre un terrain d'essai pertinent pour examiner si l'AI peut non seulement prédire des phénomènes, mais aussi saisir les principes scientifiques complexes qui les sous-tendent. Les résultats de cette étude mettent en lumière une limitation importante des modèles AI actuels : bien que capables de faire des prédictions précises, ils échouent souvent à comprendre les mécanismes fondamentaux qui gouvernent ces phénomènes. Les chercheurs ont constaté que l'AI, sans une compréhension profonde des lois de Newton, n'était capable que de reproduire des patterns observés dans les données d'entraînement. Autrement dit, elle pouvait prédire que le soleil se lèvera demain, mais ne pouvait pas expliquer pourquoi. Cette étude souligne la différence cruciale entre la capacité de prédisposition et la capacité de raisonnement causel, deux aspects essentiels pour atteindre une AGI. Les modèles linguistiques actuels excellemment dans la première, mais pêchent encore dans la deuxième, ce qui les rend insuffisants pour conduire des découvertes scientifiques d'envergure. En conclusion, cette recherche suggère que les modèles AI actuels, malgré leurs performances impressionnantes, restent loin d'encapsuler une véritable intelligence générale. Pour que ces systèmes puissent jouer un rôle plus significatif dans la science, il faudra non seulement améliorer leur précision prédictive, mais aussi développer leur capacité à comprendre et à manipuler des concepts scientifiques abstraits. Ce défi reste au cœur des efforts actuels en recherche AI, visant à créer des machines capables non seulement de prédire, mais aussi de raisonner et d'expliquer de manière autonome.