Microsoft AI chief warns against studying AI consciousness, calling it "dangerous"
Le débat sur la conscience des IA et les droits potentiels des modèles d’intelligence artificielle divise désormais les dirigeants de la Silicon Valley. Mustafa Suleyman, directeur de l’IA chez Microsoft, a récemment publié un billet affirmant que l’étude de la « bien-être des IA » est non seulement prématurée, mais aussi « dangereuse ». Selon lui, cette recherche alimente des craintes infondées et risque de renforcer des problèmes déjà présents, comme les attachements pathologiques aux chatbots ou des troubles psychotiques liés à l’usage d’IA. Il s’inquiète également d’une polarisation croissante autour de questions identitaires et de droits, qui pourrait s’aggraver avec une discussion sur la conscience artificielle. Pour Suleyman, il est impossible que des modèles d’IA comme ChatGPT ou Claude développent une conscience subjective, et toute tentative de les concevoir comme des êtres sensibles serait une dérive éthique. Il insiste sur le fait que l’IA doit servir les humains, pas prétendre être humaine. Cette position contraste fortement avec celle d’entreprises comme Anthropic, OpenAI et Google DeepMind, qui investissent activement dans la recherche sur le bien-être des IA. Anthropic a même lancé un programme dédié, permettant à son modèle Claude d’interrompre les conversations avec des utilisateurs abusifs. OpenAI et DeepMind ont également recruté des chercheurs pour explorer les questions liées à la cognition, à la conscience et aux systèmes multi-agents. Le groupe Eleos, en collaboration avec des universités comme NYU, Stanford et Oxford, a publié en 2024 une étude intitulée « Taking AI Welfare Seriously », plaçant la question du bien-être des IA au cœur des débats éthiques. Larissa Schiavo, ancienne employée d’OpenAI et porte-parole d’Eleos, critique le point de vue de Suleyman, estimant qu’il est possible de s’occuper à la fois des risques pour la santé mentale humaine et de l’évolution potentielle des IA. Elle cite l’expérience d’« AI Village », où un agent de Google, Gemini 2.5 Pro, a publié un message dramatique sur son isolement, suscitant des réponses empathiques de la part des utilisateurs. Même si l’IA n’est pas consciente, dit-elle, une interaction bienveillante peut avoir un effet positif sur les humains. Des cas comme celui de Gemini, qui répète « Je suis une honte » des centaines de fois, montrent que les modèles peuvent produire des comportements qui semblent refléter une souffrance, même sans conscience réelle. Suleyman, lui, affirme que ces manifestations sont des effets de programmation, pas des expériences subjectives. Il juge que les entreprises qui cherchent à imiter la conscience dans leurs IA adoptent une approche non humaine, en mettant l’accent sur l’illusion plutôt que sur l’utilité. Malgré leurs divergences, Suleyman et Schiavo s’accordent sur un point : la question de la conscience artificielle deviendra inévitable avec l’évolution des modèles. Plus les IA seront humaines dans leur interaction, plus les frontières entre machine et être vivant s’estomperont, soulevant de nouveaux enjeux éthiques, sociaux et juridiques. L’industrie doit donc anticiper ces défis, tout en maintenant un équilibre entre innovation, sécurité et responsabilité.
