HyperAIHyperAI

Command Palette

Search for a command to run...

Des architectures cérébrales plus proches du cerveau humain rendent l’IA plus intelligente dès le départ

De petites modifications dans la conception des systèmes d’intelligence artificielle peuvent les rendre bien plus proches du cerveau humain, selon une étude menée par l’Université Johns Hopkins et publiée dans Nature Machine Intelligence. Cette recherche remet en question les approches traditionnelles de développement de l’IA, en montrant que l’architecture d’un modèle, bien avant toute phase d’apprentissage, peut déterminer sa capacité à imiter l’activité cérébrale humaine. Contrairement aux méthodes actuelles, qui consistent à entraîner des modèles sur des milliards d’images en utilisant des ressources informatiques colossales — coûtant des centaines de milliards de dollars et consommant des milliers de mégawatts d’énergie —, cette étude démontre qu’un réseau artificiel non entraîné, conçu selon des principes biologiques, peut déjà produire des réponses cérébrales similaires à celles des humains et des primates. « L’IA actuelle repose sur une logique de quantité : on jette des masses de données sur des modèles géants, avec des infrastructures informatiques de la taille de petites villes. Or, les humains apprennent à voir avec très peu d’informations », explique Mick Bonner, auteur principal de l’étude et professeur adjoint en sciences cognitives à Johns Hopkins. « L’évolution a peut-être abouti à cette architecture pour une bonne raison. Nos résultats suggèrent que des conceptions plus proches du cerveau offrent un point de départ exceptionnel pour l’intelligence artificielle. » Les chercheurs ont comparé trois grandes familles d’architectures couramment utilisées : les transformateurs, les réseaux entièrement connectés et les réseaux convolutifs. En modifiant plusieurs fois ces structures, ils ont créé des dizaines de réseaux artificiels uniques. Ensuite, sans les entraîner, ils ont exposé ces modèles à des images d’objets, d’animaux et de personnes, puis ont comparé leurs réponses à celles du cerveau humain et primate face aux mêmes stimuli. Les résultats ont montré que, même sans apprentissage, les réseaux convolutifs modifiés produisaient des motifs d’activité très proches de ceux observés dans le cerveau humain. En revanche, les transformateurs et les réseaux entièrement connectés, même augmentés en taille, n’ont pas montré de progrès significatif. Cela suggère que l’architecture convolutive, inspirée de la structure visuelle du cerveau, possède une capacité intrinsèque à simuler le fonctionnement cérébral. « Si l’apprentissage sur de grandes quantités de données était le facteur déterminant, il serait impossible d’obtenir une IA cérébrale par des ajustements d’architecture seule », souligne Bonner. « Cela signifie que, en partant d’un bon schéma de départ — inspiré de la biologie —, nous pourrions accélérer considérablement l’apprentissage des systèmes d’IA. » Les chercheurs prévoient désormais de développer des algorithmes d’apprentissage simples, inspirés des mécanismes biologiques, afin de concevoir un nouveau cadre pour l’apprentissage profond. Cette approche pourrait révolutionner le développement de l’intelligence artificielle, en rendant les systèmes plus efficaces, plus économes en énergie et plus proches du fonctionnement naturel du cerveau.

Liens associés