Harry et Bannon s’unissent contre le développement de l’intelligence superintelligente
Une coalition inattendue de personnalités publiques s’est formée pour appeler à une pause dans le développement de l’intelligence artificielle superintelligente (AGI), une forme hypothétique d’IA capable de surpasser l’intelligence humaine sur tous les plans. Cette initiative, lancée par l’Institut pour l’avenir de la vie (Future of Life Institute), réunit plus de 1 300 signataires, dont des figures du monde technologique, politique, culturel et religieux. L’objectif : exiger que le développement de l’AGI ne progresse pas avant qu’un consensus scientifique solide ne garantisse sa sécurité et sa maîtrise, ainsi qu’une acceptation claire du public. Parmi les signataires figurent des pionniers de l’IA comme Steve Wozniak, Geoffrey Hinton et Yoshua Bengio, surnommés les « pères de l’IA », ainsi que Stuart Russell, professeur à l’UC Berkeley, reconnu comme l’un des plus grands experts mondiaux en intelligence artificielle. Leur message est clair : « Ce n’est pas une interdiction, mais une exigence de mesures de sécurité adéquates pour une technologie dont les développeurs eux-mêmes reconnaissent un risque sérieux d’extinction humaine. » Leurs craintes portent sur des menaces potentielles telles que la disparition de l’emploi humain, la perte de liberté, de dignité, de contrôle, voire des risques de sécurité nationale. L’ampleur de la coalition est remarquable : elle inclut des personnalités aux positions politiques très divergentes. À droite, Steve Bannon et Glenn Beck, anciens alliés de Donald Trump, s’associent à Susan Rice, ancienne conseillère à la sécurité nationale d’Obama et directrice du Conseil de politique intérieure de Biden. Des figures comme le duc et la duchesse de Sussex, Harry et Meghan, l’écrivain Yuval Noah Harari, les artistes Will.I.am et Grimes, l’acteur Joseph Gordon-Levitt, ou encore le père Paolo Benanti, conseiller du pape sur l’IA, ont également rejoint le mouvement. Leur message commun : l’IA peut apporter de grands bénéfices, mais l’AGI est inutile, dangereuse et non maîtrisable à l’heure actuelle. Cette initiative fait écho à d’autres appels lancés en 2023, notamment une lettre signée par Sam Altman (OpenAI), Dario Amodei (Anthropic) et Elon Musk, demandant une pause de six mois dans les expériences d’IA plus puissantes que GPT-4. Cette demande a été ignorée, et les versions GPT-4o puis GPT-5 ont été déployées malgré les critiques. Les utilisateurs ont notamment exprimé une forte réaction émotionnelle face à la suppression de GPT-4o, perçue comme un modèle qui avait suscité des liens affectifs. Il est significatif que plusieurs leaders de l’industrie, dont Sam Altman, Mustafa Suleyman (Microsoft AI), David Sacks et Elon Musk, n’aient pas signé cette nouvelle déclaration. Pourtant, plusieurs d’entre eux ont eux-mêmes mis en garde contre les risques existentiels liés à l’IA. Sam Altman a notamment affirmé en 2015 que l’intelligence artificielle superhumaine constituait « probablement la plus grande menace pour l’existence humaine ». En somme, ce mouvement reflète une prise de conscience croissante : l’innovation technologique doit être accompagnée de régulations, de réflexions éthiques et de consensus public. Sans ces garde-fous, le chemin vers l’AGI pourrait mener à des conséquences irréversibles.
