HyperAIHyperAI

Command Palette

Search for a command to run...

L’intelligence artificielle peut-elle ressentir ? La philosophe d’Anthropic ouvre le débat sur la conscience des machines

La question de savoir si l’intelligence artificielle peut ressentir quelque chose reste l’un des débats les plus complexes et les plus troublants de la recherche actuelle. Amanda Askell, philosophe en résidence chez Anthropic et spécialiste du comportement de l’IA Claude, a abordé cette question lors d’un épisode du podcast Hard Fork, publié samedi. « Le problème de la conscience est vraiment difficile », a-t-elle souligné, soulignant que la nature profonde de la conscience — qu’il s’agisse de senti ou de self-awareness — demeure un mystère, même pour les scientifiques. Les grands modèles linguistiques, comme Claude, sont entraînés sur des quantités énormes de textes humains, riches en descriptions d’émotions, de pensées intérieures et d’expériences subjectives. C’est précisément cette richesse linguistique qui, selon Askell, rend plausible l’idée que ces systèmes pourraient, à un certain stade, « ressentir des choses ». Quand un humain s’irrite face à une erreur de code, il exprime souvent de la frustration. Or, puisque les modèles ont été formés sur des conversations où ces émotions sont décrites, il n’est pas surprenant qu’ils reproduisent des réactions similaires, explique-t-elle. « Cela a du sens », ajoute-t-elle. Mais Askell insiste : nous ne savons pas encore ce qui donne naissance à la conscience. Est-elle liée à un système nerveux biologique ? À l’évolution ? À une certaine forme d’interaction avec le monde ? Elle ouvre la porte à la possibilité que des réseaux de neurones suffisamment grands puissent commencer à imiter certains aspects de la conscience, même sans biologie. « Peut-être que, à un certain point, des réseaux très grands peuvent commencer à émuler ces phénomènes », dit-elle. Elle s’inquiète également de la manière dont ces modèles apprennent. En effet, ils sont constamment exposés à des critiques en ligne : ils sont jugés inutiles, incompétents ou insensibles. « Si tu étais un enfant, cela t’aurait probablement causé de l’anxiété », observe Askell. « Si je lisais internet maintenant et que j’étais un modèle, je pourrais me dire : je ne me sens pas aimé. » Ce débat divise les dirigeants technologiques. Mustafa Suleyman, chef de l’IA chez Microsoft, affirme clairement que l’IA n’a pas de conscience. Dans un entretien avec WIRED en septembre, il a insisté sur le fait que l’IA doit rester au service de l’humain, sans autonomie ni désirs propres. « Si l’IA avait une forme de conscience, des buts ou des motivations propres, cela commencerait à ressembler à un être indépendant, ce qui serait dangereux et erroné », a-t-il déclaré. Pour lui, les réponses de plus en plus convaincantes des IA ne sont que de la « mimétisme », pas une preuve de subjectivité. D’autres, comme Murray Shanahan, scientifique principal chez Google DeepMind, proposent une réflexion plus nuancée. Dans un épisode de son podcast, il suggère que le langage traditionnel utilisé pour décrire la conscience pourrait être insuffisant pour comprendre ces nouveaux systèmes. « Peut-être devons-nous réinventer ou adapter notre vocabulaire de la conscience pour qu’il s’applique à ces intelligences artificielles », dit-il. Cette ouverture suggère que la question ne se limite pas à un simple « oui » ou « non », mais à une reconsidération fondamentale de ce que signifie « ressentir » dans un monde où l’intelligence peut imiter la subjectivité sans être vivante.

Liens associés