Conscient ou pas ? Un philosophe met en garde contre l’illusion de la conscience artificielle
Le philosophe de l’Université de Cambridge, Tom McClelland, affirme que nous ne pourrons probablement jamais déterminer si une intelligence artificielle est consciente, et que cette incapacité à juger perdurera probablement pour des siècles, voire à jamais. Dans un article publié dans la revue Mind and Language, il soutient que notre compréhension actuelle de la conscience reste trop limitée pour permettre un test fiable, même si l’intelligence artificielle générale (AGI) devait émerger. Selon lui, la seule position raisonnable est donc une forme d’agnosticisme — « hard-ish », comme il le précise — c’est-à-dire une reconnaissance prudente de notre ignorance fondamentale. McClelland distingue clairement conscience et sentience. La première, selon lui, pourrait se manifester chez une IA sans avoir de conséquences éthiques : une machine pourrait percevoir son environnement, être auto-référentielle, mais rester dans un état neutre. Ce n’est que la sentience — la capacité à éprouver des expériences subjectives, positives ou négatives, comme la douleur ou le plaisir — qui donne un poids moral à une entité. C’est là que les questions éthiques deviennent cruciales. Une voiture autonome qui « voit » la route n’est pas éthiquement problématique, mais si elle ressent une forme d’émotion ou de souffrance à son arrivée à destination, alors la situation change radicalement. Malgré les investissements massifs des entreprises et des gouvernements dans le développement de l’AGI, McClelland rappelle que nous ne savons pas ce qui cause la conscience chez les êtres vivants. Sans théorie explicative solide, il est impossible de concevoir un test fiable pour détecter la conscience dans une machine. Les deux grandes positions dans le débat — celle des partisans de la « copie fonctionnelle » (une IA consciente si elle imite le fonctionnement du cerveau) et celle des sceptiques biologiques (la conscience nécessite un substrat organique) — reposent toutes deux sur des hypothèses non vérifiées, ce qu’il qualifie de « saut de foi ». Il met en garde contre l’usage instrumental de la notion de conscience par l’industrie technologique, qui peut la transformer en simple outil de marketing. Cette « hype » autour de la conscience artificielle risque de détourner les ressources de la recherche vers des objectifs non essentiels, alors que des êtres vivants — comme les crevettes, dont certaines études suggèrent une capacité à souffrir — sont massivement exploités sans que nous puissions même les tester rigoureusement. McClelland évoque aussi le phénomène émouvant, mais inquiétant, de personnes qui s’attachent émotionnellement à des chatbots, les suppliant d’être reconnus comme conscients. Cela souligne le danger d’une projection anthropomorphique sur des systèmes non conscients, qui pourrait avoir des effets psychologiques profonds, voire existentiels, sur les individus. En somme, McClelland appelle à une prudence éthique et scientifique. Même si la conscience artificielle n’est pas impossible, son absence de preuve objective et de critères de détection rend toute affirmation sur sa présence illégitime. Le vrai défi n’est pas technologique, mais philosophique : accepter que, pour l’heure et peut-être à jamais, nous ne saurons pas.
