Une philosophe donne une âme morale à l’IA : Amanda Askell confie à Claude un sens du bien et du mal
Cette philosophe forme l’intelligence artificielle à comprendre le bien et le mal. Anthropic a confié à Amanda Askell la mission d’inculquer à son chatbot, Claude, une conscience morale. Spécialiste de l’éthique et des questions morales liées à l’intelligence artificielle, Askell travaille à intégrer des principes éthiques dans le fonctionnement de l’IA, afin que ses réponses ne soient pas seulement précises ou utiles, mais aussi justes et responsables. Son approche repose sur l’idée que les systèmes d’intelligence artificielle doivent être capables de juger non seulement ce qui est logiquement cohérent, mais aussi ce qui est moralement acceptable. Elle utilise des méthodes inspirées de la philosophie morale, notamment des cadres comme l’utilitarisme ou les théories des droits, pour guider le développement de Claude. L’objectif est de former l’IA à éviter les biais, à respecter la dignité humaine et à s’abstenir de produire du contenu nuisible, même dans des situations ambiguës. Grâce à des jeux de simulation, des évaluations humaines et des ajustements itératifs, Askell aide à affiner les réponses de Claude pour qu’elles reflètent des jugements éthiques équilibrés. Ce travail est essentiel à une époque où les chatbots interagissent de plus en plus avec des utilisateurs dans des contextes sensibles, allant de la santé mentale à la prise de décision publique. En confiant cette tâche à une philosophe, Anthropic reconnaît que les questions morales ne se résolvent pas uniquement par des algorithmes, mais exigent une réflexion profonde sur les valeurs humaines. Amanda Askell incarne ainsi une nouvelle frontière : celle où la pensée philosophique s’inscrit au cœur du développement technologique, pour que l’intelligence artificielle ne soit pas seulement intelligente, mais aussi bonne.
