HyperAIHyperAI
Back to Headlines

Les LLM sont-ils au bout du chemin ? L’essor des modèles d’intelligence artificielle rencontre une crise de crédibilité

il y a 2 jours

Depuis la sortie de GPT-5, qui n’a pas atteint les attentes élevées qu’avaient suscitées les annonces préalables, les sceptiques sur l’avenir des modèles de langage massifs (LLM) se font de plus en plus nombreux. Ces « doomers » de l’IA, longtemps marginalisés, sont aujourd’hui au cœur de la discussion, notamment Gary Marcus, figure emblématique de la critique. Il affirme que l’approche fondée sur l’agrandissement des données et des calculs — le « scaling » — ne mènera jamais à une intelligence artificielle générale (AGI), capable de raisonner comme un humain. Selon lui, l’idée que l’AGI est à portée de main d’ici 2027 n’était qu’un discours marketing. Cette vision est renforcée par des résultats scientifiques récents, comme une étude d’Apple publiée en juin, qui démontre que les modèles d’IA avancés échouent face à des tâches complexes, non par manque de puissance, mais par incapacité à raisonner logiquement. Leur compréhension repose sur des motifs statistiques, pas sur une véritable compréhension du monde. Le marché de l’IA, pourtant en plein essor, montre des signes d’instabilité. OpenAI, la start-up la plus valorisée au monde avec une estimation de 500 milliards de dollars, ne génère pas encore de bénéfices malgré des investissements colossaux — près de 60 milliards de dollars. Des géants comme Google, Meta, xAI ou Anthropic poursuivent la course à l’expansion des LLM, mais sans garantie de retour sur investissement. Cette bulle, selon certains, pourrait éclater si les résultats d’earnings de Nvidia, le fabricant des puces qui alimentent l’IA, montrent une croissance ralentie. L’incertitude s’étend même au sein de l’industrie : Sam Altman, PDG d’OpenAI, reconnaît que l’excitation des investisseurs est excessive, tout en affirmant que l’IA reste la technologie la plus importante depuis longtemps. Les limites des LLM sont nombreuses : hallucinations fréquentes (entre 7 % et 12 % selon une étude allemande), erreurs de compréhension, dépendance à des données de qualité souvent difficiles à obtenir, et risques de violations de droits d’auteur — comme avec les livres piratés utilisés pour entraîner Claude. Même les plus grands esprits de l’IA, comme Geoffrey Hinton, commencent à douter de l’efficacité du scaling pur. Yann LeCun, chef scientifique d’IA chez Meta, estime que l’IA doit évoluer vers des modèles capables de comprendre le monde physique, de raisonner, de planifier, et de mémoriser — des capacités que les LLM ne possèdent pas. Fei-Fei Li, inventrice d’ImageNet, va plus loin : elle affirme que le langage n’est pas le fondement de l’intelligence humaine, mais une extension de celle-ci. Face à ces limites, de nouveaux paradigmes émergent. Les « modèles du monde » (world models) s’imposent comme une alternative prometteuse. Contrairement aux LLM, qui analysent des textes, ces modèles simulent le monde réel, apprenant à partir d’expériences physiques et de dynamiques environnementales. DeepMind a lancé Genie 3, un modèle capable de reproduire des terrains volcaniques ou des fonds océaniques sombres, ouvrant la voie à des prédictions et apprentissages dans des environnements virtuels. D’autres approches, comme l’IA incarnée (robots apprenant par interaction physique), les modèles multi-agents (IA collaborant comme des humains) ou les modèles inspirés du cerveau, sont également explorées. Marcus, bien que critique des LLM, voit dans ces alternatives une vraie chance d’atteindre l’AGI. « Sans modèles cognitifs robustes du monde, ces systèmes ne devraient jamais être pleinement fiables », conclut-il. L’ère des LLM pourrait bien être en train de s’achever, laissant place à une nouvelle génération d’IA fondée sur la compréhension du réel, pas seulement sur la répétition du texte.

Related Links

Les LLM sont-ils au bout du chemin ? L’essor des modèles d’intelligence artificielle rencontre une crise de crédibilité | Gros titres | HyperAI