HyperAIHyperAI
Back to Headlines

Comment imaginer un arbre révèle les biais cachés des modèles d’IA

il y a 15 jours

Face à l’essor des modèles linguistiques génératifs, les chercheurs s’interrogent sur les biais profonds qui structurent ces systèmes, en allant au-delà des valeurs explicites pour explorer les cadres ontologiques sous-jacents. Une étude récente menée par Nava Haghighi, doctorante en informatique à Stanford, et publiée aux actes de la conférence CHI 2025, montre que la manière dont nous imaginons une simple image — comme un arbre — révèle des présupposés fondamentaux sur ce qui existe, ce qui compte, et comment le monde fonctionne. Lorsqu’elle a demandé à ChatGPT de dessiner un arbre, le modèle a produit une silhouette avec un tronc et des branches, mais sans racines. Seule une instruction explicite — « tout dans le monde est connecté » — a permis d’obtenir une représentation incluant les racines, révélant ainsi que l’architecture du modèle privilégie une vision fragmentée, non relationnelle, de la nature. Cette recherche souligne que les modèles comme GPT-3.5, GPT-4, Microsoft Copilot et Gemini (anciennement Bard) ont des difficultés à intégrer des ontologies non occidentales ou non individualistes. Bien qu’ils reconnaissent que la définition de l’humain varie selon les cultures, leurs réponses restent ancrées dans une vision biologique et individualiste. Les philosophies non occidentales sont réduites à des catégories floues comme « ontologies indigènes », sans profondeur ni nuance. Cela révèle un biais structurel : même si les données sont diverses, les architectures actuelles ne peuvent pas rendre compte des expériences vécues ni des contextes culturels qui donnent sens aux différentes façons de penser. L’étude examine également les agents génératifs, des systèmes où des IA simulées interagissent dans un environnement virtuel. Leur mémoire évalue les événements selon des critères comme la récence, la pertinence et l’importance — mais qui définit l’importance ? Un repas du matin est jugé moins significatif qu’une rupture amoureuse, reflétant des normes culturelles implicites. Ce choix, automatisé par un modèle biaisé, renforce des visions réductrices de l’expérience humaine. Les évaluations des agents montrent un paradoxe : les IA sont jugées plus « humaines » que des humains réels, ce qui soulève une question critique : avons-nous réduit la notion d’humanité à une norme étroite ? L’approche actuelle, centrée sur la simulation d’un comportement humain standardisé, risque de figer notre imagination. Les auteurs plaident pour une refonte des cadres d’évaluation en incluant des questions d’ontologie : quels mondes sont rendus possibles ou impossibles par nos choix de conception ? Ils appellent à une conception plus humaine, qui ne cherche pas à imiter une idée unique de l’humain, mais à élargir notre capacité à imaginer des formes diverses de vie, de mémoire, de connexion. Cette recherche met en garde contre le risque que les modèles d’IA codifient des présupposés dominants comme des vérités universelles, influençant durablement des domaines comme l’éducation, la santé ou la justice. Comprendre l’ontologie, c’est donc dépasser les biais de valeur pour questionner les fondements mêmes de ce que nous considérons comme réel. Comme le souligne Haghighi, « une orientation ontologique peut ouvrir de nouveaux points dans l’espace des possibles, nous permettant de remettre en question ce qui semble évident ».

Related Links

Comment imaginer un arbre révèle les biais cachés des modèles d’IA | Gros titres | HyperAI