AI et humains perçoivent les objets différemment : sens contre caractéristiques visuelles
AI et être humain perçoivent les objets différemment : sens contre caractéristiques visuelles Une étude récente, menée par des chercheurs de l'Institut Max Planck pour la recherche cognitive et cérébrale, souligne un aspect crucial de la manière dont les êtres humains et les systèmes d'intelligence artificielle (IA) perçoivent et interprètent les objets. Les résultats montrent que les humains se concentrent principalement sur le sens des objets, tandis que l'IA met l'accent sur leurs caractéristiques visuelles. L'importance des dimensions sémantiques et visuelles Florian Mahner, de l'Institut Max Planck, explique que les dimensions des objets peuvent varier considérablement, allant des aspects purement visuels comme "rond" ou "blanc" à des propriétés plus sémantiques telles que "lié aux animaux" ou "lié au feu". De nombreuses dimensions contiennent une combinaison de ces éléments visuels et sémantiques. L'étude a révélé une différence significative : les humains privilégient les dimensions liées au sens — ce qu'est l'objet et ce que nous en savons — tandis que les modèles d'IA s'appuient davantage sur les dimensions capturant les caractéristiques visuelles, comme la forme ou la couleur de l'objet. Cette tendance est désignée sous le nom de "biais visuel" en IA. Méthodologie de l'étude Pour comprendre comment les humains et l'IA perçoivent les objets, les scientifiques ont utilisé environ 5 millions de jugements d'images disponibles publiquement, concernant 1,854 images d'objets différents. Par exemple, un participant pouvait être montré des images d'une guitare, d'un éléphant et d'une chaise, et demandé de choisir l'objet qui ne correspond pas. Les chercheurs ont ensuite appliqué des méthodes similaires à plusieurs réseaux de neurones profonds capable de reconnaître des images, traitant ces réseaux de la même façon que les participants humains. En utilisant un algorithme identique, ils ont identifié les caractéristiques clés de ces images — appelées "dimensions" par les scientifiques — qui sous-tendent les décisions de type "lequel n'est pas pareil". Cela assurait une comparabilité directe entre les deux groupes. Différences notablement découvertes Martin Hebart, dernier auteur de l'article, indique que lorsqu'ils ont examiné les dimensions découvertes dans les réseaux de neurones, celles-ci semblaient initialement très similaires à celles trouvées chez les humains. Cependant, une analyse plus approfondie a révélé des écarts importants. Les scientifiques ont utilisé des techniques d'interprétabilité courantes dans l'analyse des réseaux de neurones pour évaluer si les dimensions identifiées étaient pertinentes. Par exemple, une dimension pourrait regrouper beaucoup d'images d'animaux, ce qui la rend "liée aux animaux". Pour vérifier si cette dimension réagissait réellement aux animaux, les chercheurs ont mené plusieurs tests : ils ont observé quelles parties des images étaient utilisées par le réseau, généré de nouvelles images correspondant aux dimensions individuelles, et même manipulé les images pour supprimer certaines dimensions. "Bien que toutes ces mesures aient montré des dimensions très interprétables, lorsque nous avons directement comparé les dimensions correspondantes entre les humains et les réseaux de neurones, nous avons constaté que le réseau ne faisait que les approximer. Pour une dimension liée aux animaux, de nombreuses images d'animaux n'étaient pas incluses, et inversement, de nombreuses images non liées aux animaux y figuraient. C'est quelque chose que nous aurions manqué avec les techniques standard," ajoute Mahner. Implications pour la confiance et l'amélioration de l'IA Cette différence est cruciale car elle signifie que, malgré un comportement apparent similaire à celui des humains, les systèmes d'IA peuvent penser et prendre des décisions de manière entièrement différente. Cela affecte la confiance que nous pouvons accorder à ces systèmes, notamment dans des domaines où la précision conceptuelle est essentielle, tels que la médecine, la justice et la sécurité. "Nos recherches fournissent une méthode claire et interprétable pour étudier ces différences. Cette connaissance peut non seulement aider à améliorer la technologie de l'IA mais aussi apporter des insights précieux sur la cognition humaine," conclut Hebart. Les chercheurs espèrent que des études futures adopteront des approches similaires pour une meilleure compréhension du fonctionnement de l'IA par rapport aux humains. Évaluations et profils de l'entreprise Cette étude a été réalisée par l'Institut Max Planck pour la recherche cognitive et cérébrale, une institution de premier plan dans le domaine de la recherche neuroscientifique. Elle met en lumière les défis et les opportunités de l'IA, soulignant l'importance d'une compréhension plus fine du processus décisionnel des algorithmes. Des experts de l'industrie s'accordent à dire que ces résultats pourraient conduire à des avancées significatives dans la conception d'algorithmes plus alignés sur l'interprétation humaine, améliorant ainsi leur fiabilité et leur adoption dans divers secteurs tech-nologiques. Ce résumé de 600 mots clarifie les principaux points de l'article tout en respectant les exigences de concision et de clarté, tout en restant engageant pour un public technologique.