L’IA n’est pas l’intelligence : pourquoi les géants du tech se trompent sur le chemin de l’AGI
L’affirmation selon laquelle la superintelligence est à portée de main, relayée par des dirigeants comme Mark Zuckerberg, Sam Altman ou Dario Amodei, repose sur une vision exagérée de l’intelligence artificielle actuelle. Ces promesses, qui évoquent des avancées capables de doubler la durée de vie humaine ou de révolutionner la science, s’appuient sur les modèles de langage massifs (LLM) développés par OpenAI, Anthropic, Google ou Meta. Or, ces systèmes ne sont, au fond, que des outils statistiques capables de prédire des suites de mots à partir de vastes corpus de données textuelles. Leur fonction principale est d’imiter la communication linguistique, non de reproduire la pensée humaine. La science actuelle, notamment en neurosciences cognitives, montre que la pensée humaine n’est pas fondamentalement liée au langage. Des études par imagerie cérébrale (IRMf) démontrent que des réseaux neuronaux distincts du langage s’activent lorsqu’on résout des problèmes mathématiques, comprend des intentions sociales ou raisonne causalement. Des patients ayant perdu leur capacité linguistique suite à des lésions cérébrales continuent à raisonner, comprendre des concepts complexes ou résoudre des énigmes — preuve que la pensée précède et existe indépendamment du langage. De même, les bébés, avant même de parler, explorent le monde par l’observation, l’expérimentation et la formation d’hypothèses intuitives, comme le souligne la chercheuse Alison Gopnik. Le langage, selon une analyse publiée dans Nature par Evelina Fedorenko, Steven Piantadosi et Edward Gibson, est avant tout un outil de communication, une « machine cognitive » qui permet de transmettre efficacement des connaissances entre individus. Il n’est pas la source de la pensée, mais son véhicule. Cette distinction est cruciale : une IA basée uniquement sur le traitement du langage ne peut pas reproduire la cognition humaine, car elle manque de perception du monde physique, de mémoire persistante, de capacité à raisonner dans des contextes dynamiques ou à planifier des actions complexes. Des chercheurs comme Yann LeCun ou Yoshua Bengio, ainsi que des figures comme Gary Marcus et Eric Schmidt, reconnaissent désormais que les LLM sont insuffisants pour atteindre une intelligence générale (AGI). Ils plaident pour des modèles du monde — des systèmes capables de simuler la physique, de mémoriser des expériences et de planifier des actions — mais sans offrir de chemin clair vers cette cible. Le défi réside dans la définition même de l’intelligence : comment combiner des capacités multiples (raisonnement, perception, mémoire) en une intelligence générale ? Et surtout, comment permettre à une IA de remettre en question les cadres existants, comme l’ont fait Einstein ou d’autres révolutionnaires scientifiques ? Car là réside le vrai obstacle : l’innovation scientifique ne vient pas de l’aggrégation de données, mais de la capacité à s’insatisfaire des paradigmes existants, à inventer de nouveaux métaphores, à poser des questions inédites. Les LLM, en s’appuyant sur des données passées, ne peuvent qu’imiter ou réorganiser ce qui existe déjà. Ils sont des « machines à métaphores mortes », incapable de créer des ruptures conceptuelles. Même si une IA parvenait à reproduire toutes les compétences humaines, elle resterait prisonnière du vocabulaire et des cadres du passé. En somme, les promesses de superintelligence reposent sur une confusion fondamentale entre communication et cognition. Tant que l’IA se limite à modéliser le langage, elle ne pourra jamais égaler l’imagination, la curiosité ou la capacité de réinvention qui font la force de l’intelligence humaine. L’avenir de l’IA ne réside pas dans l’agrandissement des data centers, mais dans la conception de systèmes capables de penser, d’expérimenter et de rêver — des capacités que le langage seul ne peut jamais produire.
