LLMs en 2025 : la fin des stéréotypes, la montée du raisonnement en chaîne et les pistes vers l'AGI
À la fin de 2025, les réflexions sur l’intelligence artificielle révèlent un tournant marqué par une reconnaissance progressive de la capacité des modèles de langage à dépasser les limites de simples « perroquets stochastiques ». Pendant des années, certains chercheurs ont maintenu que les grands modèles de langage (LLM) ne possédaient aucune représentation réelle du sens des prompts ni de ce qu’ils allaient dire. Cette vision, bien que contredite par des preuves empiriques croissantes, a persisté. Mais en 2025, presque tous ont fini par abandonner cette position. Le concept de chain of thought (CoT) est au cœur de ce changement. Il ne s’agit pas d’un miracle, mais d’une évolution fondamentale dans la manière dont les modèles exploitent leurs représentations internes. Deux mécanismes semblent expliquer son efficacité : d’une part, une exploration interne du modèle, où les concepts pertinents sont activés dans la fenêtre contextuelle, permettant une réponse plus ciblée ; d’autre part, une forme d’apprentissage par renforcement qui guide le modèle à construire une suite de tokens cohérente, chaque étape modifiant l’état interne du modèle pour converger vers une réponse utile. L’idée que l’augmentation des performances se limite à la taille du contexte ou du modèle est désormais obsolète. Grâce à l’apprentissage par renforcement avec des récompenses vérifiables, les modèles peuvent continuer à s’améliorer sur des tâches complexes, comme l’optimisation de code pour la vitesse, où le signal de récompense est clair et mesurable. Bien qu’on ne soit pas encore au niveau de l’« échec 37 » d’AlphaGo, cette voie ouvre des perspectives réalistes pour des progrès durables. L’amélioration de l’apprentissage par renforcement appliqué aux LLMs pourrait bien devenir le prochain grand bond en avant de l’IA. Le monde du développement logiciel a lui aussi évolué. La résistance des développeurs face à l’assistance par IA a fortement diminué. Même si les erreurs persistent, la qualité des suggestions et du code généré est désormais suffisamment élevée pour justifier l’investissement. Une division s’est établie entre ceux qui utilisent les LLM comme des collègues (via des interfaces web comme Gemini ou Claude) et ceux qui les traitent comme des agents autonomes capables d’agir indépendamment. Parallèlement, certains scientifiques éminents croient que l’histoire des Transformers pourrait se répéter, mais mieux, avec des architectures alternatives — basées sur des représentations symboliques explicites ou des modèles du monde. Pourtant, il est probable que les LLM, en tant que machines différentiables apprenant à approximer des étapes de raisonnement discret, puissent conduire à l’AGI sans nécessiter de paradigmes radicalement nouveaux. L’AGI pourrait être atteinte par plusieurs chemins différents, chacun menant à des architectures fondamentalement distinctes. Certains affirment que le CoT a changé fondamentalement la nature des LLM. Cette vision est erronée. Le modèle reste le même : une architecture de prédiction de mot suivant, avec une cible de prédiction de token. Le CoT est produit de la même manière, mot après mot, par le même processus. Ce n’est pas une transformation structurelle, mais une optimisation de l’usage de l’architecture existante. Enfin, le test ARC, autrefois perçu comme une preuve que les LLM étaient incapables de raisonnement général, apparaît aujourd’hui bien moins insurmontable. Des modèles plus petits, spécifiquement optimisés, réussissent des performances solides sur ARC-AGI-1, tandis que des LLM très grands, utilisant un CoT étendu, obtiennent des résultats impressionnants sur ARC-AGI-2 — une performance que beaucoup pensaient impossible avec cette architecture. Ainsi, le test ARC s’est transformé : il n’est plus un obstacle à l’IA, mais une validation de ses capacités. Le défi fondamental des 20 prochaines années n’est plus de prouver que l’IA peut raisonner, mais de s’assurer qu’elle progresse de manière sûre, responsable, et surtout, sans menacer l’existence humaine.
