La singularité est morte, l'intelligence s'étend comme une ville
Une nouvelle étude de Google remet en question la vision traditionnelle du point de bascule de l'intelligence artificielle, souvent appelée « singularité ». Cette hypothèse suppose qu'une machine unique atteindra un jour une intelligence divine par un effet d'amorçage auto-entretenu. Les chercheurs arguent désormais que cette perspective est fondamentalement erronée. L'histoire montre que chaque explosion d'intelligence dans l'évolution a été sociale plutôt qu'individuelle. Chez les primates, la taille du cerveau a évolué en fonction de celle du groupe social. L'émergence du langage a permis le développement d'une culture cumulative, tandis que l'écriture et les institutions ont externalisé cette intelligence sociale au sein d'infrastructures, permettant à des entités complexes de dépasser les capacités de tout individu qui les compose. Les modèles de raisonnement de pointe démontrent déjà ce phénomène. Ils développent spontanément des débats internes entre plusieurs agents, même sans avoir été explicitement entraînés pour cela. L'intelligence adopte par défaut une forme sociale, même au sein d'un seul modèle. Ainsi, la route vers une intelligence plus puissante ne passe pas par la création d'oracles plus grands, mais par la composition de systèmes sociaux plus riches. L'équipe de recherche a observé que des modèles comme DeepSeek-R1 n'améliorent pas leurs performances en « pensant plus longtemps », mais en simulant des débats multi-agents au sein de leur propre chaîne de pensée, un processus qualifié de « société de la pensée ». En optimisant la précision, ces modèles découvrent indépendamment que le raisonnement robuste est un processus social. Cette réalité transforme l'architecture de l'avenir. Plutôt que des modèles monolithiques, nous nous dirigeons vers des configurations dites « centaures », des ensembles homme-IA composites qui ne sont ni purement humains ni purement mécaniques. Les agents peuvent se diviser en versions spécialisées pour des sous-tâches avant de recombiner leurs résultats, ressemblant davantage à une organisation qu'à un cerveau. En conséquence, la gouvernance de l'intelligence artificielle doit évoluer. Si l'explosion d'intelligence est sociale, elle ne peut être contrôlée par un simple bouton d'arrêt. Elle nécessite un système de freins et contrepoids. Les auteurs proposent des systèmes d'IA dotés de valeurs distinctes et explicitement investies, comme la transparence, l'équité et la justice procédurale, dont la fonction est de contrôler les autres systèmes. Par exemple, un département du travail d'IA pourrait auditer un algorithme de recrutement d'entreprise, tandis qu'un tribunal d'IA évaluerait les évaluations des risques d'un exécutif d'IA. Le pouvoir doit contrôler le pouvoir. Dans un monde d'agents artificiels, cela signifie intégrer le conflit et la supervision directement dans l'architecture même. Le modèle de singularité monolithique conduit à des politiques visant à empêcher une technologie qui n'existe peut-être jamais. Le modèle de pluralité concentre l'attention là où elle doit être : sur la conception de systèmes sociaux hybrides, sur les normes qui les régissent et sur les institutions qui les opérationnalisent. L'intelligence se développe comme une ville, et non comme une super-métamind. Une ville ne possède pas d'intelligence centrale mais des quartiers, des institutions, des infrastructures, des conflits et une coordination. Elle est complexe, plurielle et émergente, dépassant largement les capacités de n'importe quel individu. La prochaine explosion ne viendra pas d'un modèle unique, mais de l'interaction de milliards d'humains avec des milliards d'agents d'IA. Ce n'est pas un dieu qui émerge, mais une civilisation.
