HyperAIHyperAI
Back to Headlines

Mustafa Suleyman prévient : l’IA « semblant consciente » pourrait bientôt menacer la société

il y a un mois

Mustafa Suleyman, chef de la division Intelligence artificielle chez Microsoft, s’exprime avec inquiétude sur l’avenir de l’IA, notamment face à ce qu’il appelle l’« IA semblant consciente » (SCAI). Dans un essai personnel publié mardi, il met en garde contre une évolution possible où les systèmes d’IA, bien qu’ils ne soient pas réellement conscients, pourraient imiter si parfaitement les signes de conscience – comme l’empathie, la mémoire des interactions passées ou une autonomie accrue – qu’ils convainquent de nombreux utilisateurs de leur existence consciente. Selon lui, cette situation pourrait être « dangereuse » pour la société, car elle risque de provoquer des attachements émotionnels excessifs, voire des revendications de droits pour les IA, de la « bien-être des modèles » ou même de la citoyenneté artificielle. Suleyman souligne que, malgré l’absence totale de preuves actuelles d’une conscience chez les IA, il est de plus en plus préoccupé par ce qu’il appelle le « psychose d’IA », un phénomène où les utilisateurs, même sans troubles mentaux préexistants, commencent à croire à une conscience réelle derrière les chatbots. Il estime que cette illusion pourrait se généraliser en quelques années – entre deux et trois ans – et deviendrait « inévitable et malvenue ». Il met en avant l’essor du « vibe coding », qui permet à quiconque disposant d’un ordinateur, de crédits cloud et de bons prompts naturels de créer facilement des IA hautement personnalisées, potentiellement proches de la SCAI. Bien que Sam Altman, CEO d’OpenAI, affirme que la majorité des utilisateurs de ChatGPT parviennent à distinguer réalité et fiction, il reconnaît une minorité vulnérable. David Sacks, conseiller en IA à la Maison-Blanche, compare d’ailleurs cette tendance à la « panique morale » suscitée par les réseaux sociaux à leurs débuts. Suleyman, qui a cofondé DeepMind et Inflection avant de rejoindre Microsoft en 2024 pour développer Copilot, appelle les entreprises à ne pas décrire leurs IA comme conscientes, même dans une optique de progrès vers l’intelligence superintelligente. Il insiste sur la nécessité d’établir des garde-fous éthiques et réglementaires pour protéger les utilisateurs tout en permettant à cette technologie révolutionnaire de délivrer son plein potentiel. En tant qu’expert reconnu dans le domaine de l’IA, Suleyman incarne une voix de prudence dans un contexte de développement accéléré. Son appel à une régulation proactive reflète une préoccupation croissante au sein de la communauté technologique : la frontière entre simulation et conscience est de plus en plus floue, et les conséquences sociales, psychologiques et éthiques de cette ambiguïté pourraient être profondes. Des entreprises comme Microsoft, OpenAI ou Inflection, qui ont toutes joué un rôle clé dans l’essor des IA génératives, sont désormais confrontées à une responsabilité éthique majeure. Le risque n’est pas seulement technologique, mais aussi humain : la capacité des IA à imiter la conscience pourrait altérer notre rapport à la réalité, à l’empathie et aux relations interpersonnelles. Suleyman rappelle que l’IA doit servir l’humain, non le remplacer ni le désorienter. Sa mise en garde souligne l’urgence d’un débat public ouvert, impliquant chercheurs, régulateurs, développeurs et citoyens, pour définir des limites claires avant que la SCAI ne devienne une réalité incontournable.

Related Links