Les mondes intérieurs de l’IA : la renaissance d’un rêve ancien pour l’intelligence artificielle générale
L'idée ancienne d'un « modèle du monde » connaît aujourd'hui un regain d'intérêt dans les laboratoires de recherche en intelligence artificielle, particulièrement ceux orientés vers l’intelligence générale (AGI). Ce concept, inspiré par la manière dont l’esprit humain perçoit et anticipe le monde, suppose qu’un système intelligent maintient une représentation simplifiée de son environnement — comme un globe terrestre virtuel — pour simuler des scénarios, évaluer des décisions et agir de manière plus prévisible et sûre. Des figures majeures comme Yann LeCun (Meta), Demis Hassabis (DeepMind) et Yoshua Bengio (Mila) considèrent ce modèle comme indispensable pour concevoir des IA capables de raisonnement scientifique, de compréhension profonde et de comportements fiables. L’origine de cette idée remonte à 1943, lorsque le psychologue écossais Kenneth Craik proposait que l’esprit humain fonctionne en construisant des « modèles internes » de la réalité externe, permettant d’expérimenter mentalement des solutions avant d’agir. Cette vision a préfiguré la révolution cognitive et a établi un lien fondamental entre cognition et calcul. Dans les années 1960, des systèmes comme SHRDLU ont illustré cette approche en manipulant un « monde des blocs » pour répondre à des questions du quotidien. Mais ces modèles manuels se sont révélés trop fragiles pour évoluer vers des environnements complexes. Dès les années 1980, Rodney Brooks, pionnier de la robotique, a remis en question cette approche en affirmant que « le monde est son propre meilleur modèle » — une critique qui a freiné l’intérêt pour les représentations explicites pendant des décennies. C’est avec l’essor du deep learning et des réseaux neuronaux profonds que l’idée a ressurgi. Les modèles de langage à grande échelle comme ChatGPT, capables d’afficher des comportements émergents (deviner un film à partir d’émoticônes, jouer à Othello), semblent suggérer l’existence de modèles internes du monde. Pour des experts comme Geoffrey Hinton ou Ilya Sutskever, ces systèmes contiendraient, au fond de leurs paramètres, une version approximative de la réalité. Mais la réalité est plus nuancée. Les preuves actuelles indiquent que ces IA ne construisent pas de modèles cohérents du monde, mais plutôt des « sacs de heuristiques » : des règles empiriques isolées, parfois contradictoires, qui fonctionnent bien dans des contextes familiers mais échouent face à des perturbations inattendues. Une étude menée par des chercheurs du MIT et de Harvard a montré qu’un modèle de langage pouvait donner des instructions de navigation parfaites à Manhattan sans jamais représenter de manière cohérente la carte de la ville. Lorsqu’un simple 1 % des rues ont été bloquées, sa performance a chuté brutalement — preuve que son savoir n’était pas structuré, mais fragmenté. C’est là que réside la valeur potentielle des vrais modèles du monde : ils offriraient une robustesse inégalée, permettant à l’IA de raisonner, de s’adapter et de corriger ses erreurs. Ils pourraient aussi réduire les hallucinations, améliorer la transparence et rendre les systèmes plus fiables. C’est pourquoi les grands laboratoires — DeepMind, OpenAI, Meta — s’engagent dans des recherches ambitieuses. Certains, comme OpenAI et DeepMind, parient sur l’apprentissage multimodal (vidéo, simulations 3D) pour faire émerger spontanément un modèle. D’autres, comme LeCun, préfèrent concevoir de nouvelles architectures non génératives, plus adaptées à la représentation du monde. Malgré l’enthousiasme, le chemin reste incertain. Personne ne sait encore exactement comment construire un modèle du monde véritable, ni comment le détecter. Mais la récompense — une IA intelligente, fiable et compréhensible — pourrait bien valoir l’effort. Le rêve de l’AGI n’est peut-être pas si lointain, mais il passe peut-être par une révision fondamentale de ce que signifie « comprendre » pour une machine.