HyperAIHyperAI

Command Palette

Search for a command to run...

Plus de 1 000 personnalités s’engagent pour un moratoire sur le développement de l’intelligence superintelligente

Une nouvelle vague de préoccupation face à l’intelligence artificielle superintelligente a secoué le monde technologique et public, avec l’annonce d’une lettre ouverte signée par plus de 1 000 personnalités influentes. Initiée par l’organisation à but non lucratif Future of Life Institute, cette déclaration appelle à une suspension immédiate du développement de l’intelligence artificielle superintelligente — c’est-à-dire des systèmes capables de surpasser l’humain dans tous les domaines cognitifs — jusqu’à ce qu’un consensus scientifique solide sur sa sécurité et un soutien public massif soient établis. Le nom de cette liste est impressionnant : elle réunit des figures emblématiques du monde de l’IA, comme les « pères de l’IA » Geoffrey Hinton, Yoshua Bengio, et le lauréat du prix Turing Yao Qizhi, mais aussi des personnalités du monde politique, économique et culturel, dont Steve Wozniak, Richard Branson, le prince Harry, Steve Bannon, ou encore Susan Rice, ancienne conseillère à la sécurité nationale sous Obama. Tous s’entendent sur un point : l’explosion de l’IA, si elle n’est pas encadrée, pourrait mener à des conséquences catastrophiques — chocs économiques, perte de contrôle humain, menaces sur les libertés individuelles, voire l’extinction de l’espèce humaine. L’historien Yuval Noah Harari a même qualifié l’IA superintelligente de « menace pour le système d’exploitation de la civilisation humaine ». Des données d’opinion publiées en parallèle renforcent l’urgence perçue : 73 % des Américains souhaitent une régulation stricte de l’IA avancée, et 64 % estiment qu’il ne faut pas poursuivre son développement tant qu’il n’est pas garanti qu’il est sûr. « 95 % des Américains ne veulent pas courir une course vers l’IA superintelligente », résume Max Tegmark, président de l’Institut, soulignant une prise de conscience collective. Cependant, l’effet concret de cette lettre reste incertain. En 2023, le même groupe avait lancé un appel à un gel de six mois des travaux sur les modèles d’IA les plus avancés — un appel qui n’a eu aucune répercussion sur les grandes entreprises comme Meta, Google DeepMind ou OpenAI, qui poursuivent activement leur quête d’AGI (intelligence artificielle générale). Certains experts, comme Yann LeCun, directeur scientifique de Meta, estiment que les avertissements sur les risques existentiels sont exagérés, voire contradictoires, lorsqu’ils sont émis par des chercheurs qui, en parallèle, développent des systèmes de pointe. Il les qualifie de « non honnêtes sur le plan intellectuel ». D’autres, comme Stuart Russell, auteur du manuel fondateur Artificial Intelligence: A Modern Approach, mettent en garde contre un excès d’optimisme qui pourrait mener à une crise de confiance, similaire à la bulle internet. Il insiste : cette initiative n’est pas une demande de moratoire, mais un appel à imposer des mesures de sécurité strictes avant toute avancée majeure. Même au sein d’OpenAI, des voix s’élèvent pour tempérer l’enthousiasme. Bret Taylor, président de l’entreprise, voit des parallèles entre l’actuelle course à l’IA et l’explosion du web dans les années 1990. Ainsi, la débâcle n’est pas tant dans l’existence d’un danger, mais dans la profonde division qui traverse l’industrie. S’agit-il d’un véritable risque d’apocalypse, ou d’un mythe alimenté par l’excitation médiatique ? Tandis que les laboratoires continuent d’innover, la discussion sur le destin de l’IA — et de l’humanité — n’a fait que commencer.

Liens associés