Plus de 200 personnalités mondiales lancent un appel urgent pour des frontières internationales claires dans l’IA
Un appel mondial aux lignes rouges de l’intelligence artificielle sonne l’alarme sur l’absence de politique internationale en la matière. Lundi, plus de 200 anciens chefs d’État, diplomates, lauréats du prix Nobel, dirigeants d’IA, scientifiques et autres personnalités ont convergé autour d’un point essentiel : il est impératif de définir des « lignes rouges » que l’IA ne doit jamais franchir. Parmi ces limites figurent notamment l’interdiction de l’impersonation humaine par l’IA ou sa capacité à se reproduire elle-même. Ces signataires, accompagnés de plus de 70 organisations spécialisées dans l’IA, ont rejoint l’initiative Global Call for AI Red Lines, qui appelle les gouvernements à parvenir à un accord politique international sur ces frontières d’ici la fin de l’année 2026. Parmi les signataires figurent des figures emblématiques du domaine, comme le scientifique britannico-canadien Geoffrey Hinton, co-fondateur d’OpenAI Wojciech Zaremba, le directeur de la sécurité d’Anthropic Jason Clinton, ou encore le chercheur de Google DeepMind Ian Goodfellow. « L’objectif n’est pas de réagir après un incident majeur, mais de prévenir des risques à grande échelle, potentiellement irréversibles, avant qu’ils ne se produisent », a déclaré Charbel-Raphaël Segerie, directeur exécutif du Centre français de sécurité de l’IA (CeSIA), lors d’un point presse. « Si les nations ne peuvent pas encore s’accorder sur ce qu’elles veulent faire avec l’IA, elles doivent au moins s’entendre sur ce qu’elle ne doit jamais faire. » Cette initiative, lancée par le CeSIA, The Future Society et le Center for Human-Compatible Artificial Intelligence de l’Université de Californie à Berkeley, intervient à l’occasion de la 80e semaine de haut niveau de l’Assemblée générale des Nations unies à New York. Maria Ressa, lauréate du prix Nobel de la paix, a évoqué l’initiative lors de son discours d’ouverture, en exigeant des mesures pour « mettre fin à l’impunité des géants du numérique grâce à une responsabilité mondiale ». Si certaines régions ont déjà mis en place des lignes rouges, comme le règlement européen sur l’IA, qui interdit certains usages jugés « inacceptables », ou l’accord entre les États-Unis et la Chine sur le contrôle humain des armes nucléaires, aucune convergence mondiale n’existe encore. « Les engagements volontaires ne suffisent pas », a souligné Niki Iliadis, directrice de la gouvernance mondiale de l’IA chez The Future Society. « Les politiques de croissance responsable adoptées par les entreprises d’IA ne garantissent pas une application effective. Il faudra à terme une institution internationale indépendante, dotée de pouvoirs concrets, pour définir, surveiller et faire respecter ces lignes rouges. » Stuart Russell, professeur de sciences informatiques à l’UC Berkeley et chercheur de renom en IA, a insisté sur la nécessité d’un changement de paradigme technologique : « Ils peuvent se contenter de ne pas construire une IA générale (AGI) tant qu’ils ne connaissent pas comment la rendre sûre. Comme les développeurs d’énergie nucléaire n’ont pas construit de centrales avant de savoir les contrôler, l’industrie de l’IA doit choisir une voie différente, fondée sur la sécurité dès le départ, et nous devons être certains qu’elle le fait. » Selon Russell, ces lignes rouges ne freinent ni le développement économique ni l’innovation. « On peut avoir une IA au service du progrès sans pour autant accepter une AGI incontrôlable », a-t-il affirmé. « Cette opposition artificielle entre, d’un côté, les bénéfices médicaux ou économiques, et, de l’autre, le risque d’un monde détruit par l’IA — c’est une illusion. »
