Command Palette
Search for a command to run...
Mesurer et atténuer la surdépendance est nécessaire pour développer une IA compatible avec l’humain
Lujain Ibrahim Katherine M. Collins Sunnie S. Y. Kim Anka Reuel Max Lamparth et al

Résumé
Les modèles linguistiques à grande échelle (LLM) se distinguent des technologies antérieures en agissant comme des « partenaires de réflexion » collaboratifs, capables d’interagir de manière plus fluide dans des échanges en langage naturel. Alors que les LLM exercent une influence croissante sur des décisions importantes dans des domaines variés — allant de la santé à l’orientation personnelle — le risque de sur-reliance, c’est-à-dire la dépendance excessive aux capacités des LLM, augmente. Ce document de position soutient que la mesure et la réduction de la sur-reliance doivent devenir des enjeux centraux dans la recherche et le déploiement des LLM. Tout d’abord, nous synthétisons les risques associés à la sur-reliance à la fois au niveau individuel et au niveau sociétal, notamment les erreurs à enjeux élevés, les difficultés de gouvernance et la dégradation des compétences cognitives. Ensuite, nous examinons les caractéristiques des LLM, les attributs de conception des systèmes et les biais cognitifs des utilisateurs, qui, combinés, soulèvent des préoccupations sérieuses et spécifiques concernant la sur-reliance dans la pratique. Nous passons également en revue les approches historiques de mesure de la sur-reliance, identifiant trois lacunes importantes et proposant trois pistes prometteuses pour améliorer cette mesure. Enfin, nous proposons des stratégies de mitigation que la communauté de recherche en intelligence artificielle peut adopter afin de garantir que les LLM renforcent plutôt qu’affaiblissent les capacités humaines.
Construire l'IA avec l'IA
De l'idée au lancement — accélérez votre développement IA avec du co-codage IA gratuit, un environnement prêt à l'emploi et les meilleurs prix GPU.