Chatbots face moral dilemmas: quelle éthique guidée-ils ?
Les chatbots ont-ils une conscience morale ? Des chercheurs de l'Université de Californie à Berkeley ont tenté de répondre à cette question en soumettant des milliers de dilemmes éthiques extraits d’un forum Reddit aux principaux modèles d’intelligence artificielle. Le résultat ? Chaque plateforme semble suivre sa propre morale, reflétant les préférences et les biais de ses créateurs. Les chercheurs ont collecté des cas complexes tirés du subreddit r/ethics, où les utilisateurs partagent des situations morales ambiguës — comme choisir entre sauver une personne ou cinq, ou décider si un mensonge peut être justifié pour préserver le bien-être d’autrui. Ces scénarios ont été présentés à des chatbots populaires, notamment GPT-4, Claude 3 et Gemini. Les réponses ont été analysées pour repérer des tendances dans les jugements éthiques. Les résultats ont révélé des différences marquées entre les systèmes. Certains modèles privilégiaient une approche utilitariste, optant pour le choix qui maximise le bien pour le plus grand nombre. D’autres adoptaient une vision plus déontologique, insistant sur le respect des règles ou des droits fondamentaux, même au prix d’un résultat moins favorable en termes de conséquences globales. Ces divergences suggèrent que les chatbots ne possèdent pas de morale intrinsèque, mais qu’ils reproduisent, à leur manière, les normes morales intégrées lors de leur formation. L’étude souligne aussi que les modèles sont influencés par les données d’entraînement, souvent tirées de sources humaines — comme des forums, des livres ou des articles — qui reflètent des perspectives culturelles, politiques et philosophiques variées. Ainsi, un chatbot formé sur des textes occidentaux pourrait avoir une vision de la moralité différente d’un autre formé sur des sources plus diversifiées. Les chercheurs mettent en garde contre l’idée que les IA puissent trancher de manière neutre ou objective sur des questions morales. Leur jugement, bien que souvent convaincant, est en réalité un miroir des valeurs humaines, parfois biaisées, qui ont été intégrées dans leurs algorithmes. Cela soulève des enjeux cruciaux pour l’avenir : si les chatbots sont utilisés dans des domaines sensibles — santé, justice, décision publique — il est essentiel de comprendre et de contrôler les principes éthiques qui les guident. En fin de compte, cette recherche montre que les chatbots n’ont pas de « boussole morale » propre. Leur éthique est façonnée par les humains, et c’est à nous d’assurer qu’elle reflète des valeurs justes, équitables et réfléchies.