HyperAIHyperAI

Command Palette

Search for a command to run...

Une nouvelle théorie mathématique révolutionne l’intelligence artificielle : le champ de similarité, fondé sur l’essence des relations, redéfinit l’intelligence comme une capacité géométrique à générer le semblable

Il y a 2500 ans, Aristote proposait une ontologie centrée sur l’« être » : les objets sont des entités individuelles, distinctes et identifiables, une vision qui a indirectement façonné l’ère industrielle. Aujourd’hui, dans l’ère de l’intelligence artificielle, nous traversons une phase analogue à celle de la révolution thermique du XVIIIe siècle : les ingénieurs conçoivent des machines par essais et erreurs, sans théorie unificatrice, jusqu’à ce que Carnot et Clausius établissent la thermodynamique. Aujourd’hui, nous construisons des réseaux de neurones de plus en plus grands et puissants, mais sans cadre théorique solide pour les comprendre. Face à des défis croissants — comment expliquer le « boîte noire » des réseaux ? Comment rendre l’IA plus stable ? — le chercheur en intelligence artificielle Wu Qisheng s’est demandé : quelle est la nature fondamentale de l’intelligence ? Pourquoi les entités individuelles sont-elles considérées comme premières en ontologie ? À partir de cette réflexion, une équipe de recherche a développé un cadre mathématique formel, fondé non pas sur les entités, mais sur les relations, en plaçant la relation de similarité au rang de principe premier. Ce cadre, baptisé théorie du champ de similarité, repose sur une reformulation géométrique des concepts cognitifs. En affaiblissant intentionnellement les symétries classiques des espaces métriques, il permet une description plus fidèle des systèmes cognitifs. Dans ce cadre, l’intelligence est définie de manière générative : « L’intelligence est la capacité, étant donné un objet incarnant un concept, à générer un autre objet incarnant le même concept. » Formellement, cela se traduit par une séquence d’états système ( Z_p ), contenant un ensemble fini d’entités ( X_K \subseteq X_p ), chacune appartenant à un ensemble de niveau supérieur ( F_\alpha(K) ). L’intelligence associée au concept ( K ) est alors la capacité d’un opérateur de génération ( G ) à produire de nouvelles entités ( E' \in G(X_p) ) telles que la similarité ( S(E', K) \geq \alpha ), où ( \alpha ) est un seuil prédéfini. Ainsi, le problème de l’IA est transformé d’un problème statistique en un problème géométrique : il s’agit d’explorer la structure de l’espace des concepts. Cette nouvelle perspective ouvre la voie à une compréhension unifiée des phénomènes cognitifs. L’équipe a déduit et prouvé deux théorèmes fondamentaux. Le théorème d’incompatibilité formalise les impasses dans les négociations humaines : deux parties ne peuvent pas simultanément être « raisonnables » si leurs jugements sont contradictoires. Le théorème de stabilité montre que tant les croyances individuelles que les croyances collectives nécessitent une cohérence durable pour exister. La théorie du champ de similarité offre également une nouvelle clé pour comprendre les grands modèles linguistiques. En décomposant un réseau neuronal en ses « fibres conceptuelles », chaque neurone peut être caractérisé par l’ensemble des entrées qui le font activer à 1 — ce qui rend la transparence du modèle une question de reconstruction des fibres conceptuelles et de leur composition. En appliquant cette théorie à trois grands modèles linguistiques — cerebras-gpt-590M, pythia-160m, gemma-3-270m — et en utilisant le modèle de Bradley–Terry–Luce pour simuler les classements de marques selon les perceptions collectives, l’équipe a obtenu des résultats remarquables : un coefficient de Spearman de 0,963 et une erreur moyenne absolue de 2,160. Ces chiffres indiquent que les modèles ont capturé une partie significative de la structure cognitive collective. Cela ouvre des perspectives quantitatives pour les sciences sociales, l’économie comportementale et les études culturelles. Sur le plan pratique, cette théorie permet d’identifier des contradictions logiques dans les sorties des modèles — par exemple, des paires de prompts comme « i est plus typique que j » et « j est plus typique que i » étant toutes deux jugées vraies. Le théorème d’incompatibilité permettrait de détecter ces erreurs et d’y remédier pendant l’entraînement, potentiellement améliorant la qualité des modèles. Enfin, cette approche transforme les grands modèles linguistiques en outils d’expérimentation virtuelle : au lieu de dépendre uniquement des enquêtes, on peut désormais « observer » des populations entières via des simulations neuronales. Comme l’objectif initial du microscope, ces modèles sont encore imparfaits, mais avec des théories solides et une puissance de calcul croissante, ils deviendront des outils puissants pour explorer les dynamiques sociales. Le processus de recherche suit une démarche rigoureuse : poser des questions fondamentales sur la nature des choses, traduire les intuitions en langage mathématique précis, déduire des conséquences, les relier au monde réel, puis expérimenter avec des outils statistiques solides (valeurs p, intervalles de confiance). Sans cette chaîne, tout reste une abstraction vide. La théorie du champ de similarité trouve aussi son origine dans les classiques orientaux, inspirant Wu Qisheng, qui a combiné cette sagesse ancienne avec les avancées modernes de l’informatique. Il souhaite aujourd’hui promouvoir la valeur des savoirs traditionnels chinois et asiatiques dans le monde scientifique. Ancien étudiant à l’Université de Hong Kong, ancien ingénieur dans une grande entreprise technologique, il a ensuite choisi une vie plus libre, ne prenant désormais que des projets ponctuels — notamment comme scientifique des données chez Copilot AI, une entreprise canadienne émergente.

Liens associés

Une nouvelle théorie mathématique révolutionne l’intelligence artificielle : le champ de similarité, fondé sur l’essence des relations, redéfinit l’intelligence comme une capacité géométrique à générer le semblable | Articles tendance | HyperAI