Faim pour l’humanité : un militant lance une grève de la faim devant Anthropic pour stopper la course à l’IA générale
Depuis le 31 août, Guido Reichstadter, un citoyen ordinaire de 31 ans, entame une grève de la faim devant le siège d’Anthropic à San Francisco, marquant ainsi son 17e jour sans nourriture. Chaque jour, de 11h à 17h, il tient une planche blanche annonçant « Grève de la faim : Jour 15 », appelant à l’arrêt immédiat de la course à l’intelligence artificielle générale (AGI), une forme d’IA supérieure ou équivalente à l’intelligence humaine. Pour Reichstadter, cette course représente un risque existentiel que l’industrie technologique ignore délibérément. Il cite notamment une déclaration de Dario Amodei, PDG d’Anthropic, selon laquelle la probabilité d’un désastre catastrophique à l’échelle de la civilisation humaine pourrait atteindre 10 à 25 % — une estimation qu’il juge inacceptable. Il dénonce la rhétorique des « gardiens responsables » comme une « mythologie » et une justification auto-servante des entreprises. Reichstadter, père de deux enfants, affirme agir par responsabilité morale envers l’humanité. Il souhaite que les dirigeants technologiques soient confrontés personnellement à leurs choix, non pas de manière abstraite, mais face à un citoyen en détresse. Il a remis une lettre manuscrite à Amodei via la sécurité d’Anthropic, exigeant qu’il s’engage à interrompre le développement de l’AGI et à mener une pause mondiale, en demandant une réponse explicite. « Je ne pense pas qu’ils aient jamais été véritablement mis en face de leurs victimes potentielles », dit-il. Bien que l’entreprise n’ait pas répondu, son geste a eu un écho international : deux autres grèves de la faim ont été lancées à Londres (devant DeepMind) et en Inde, avec des participants soutenus par des appels à la responsabilité éthique. Michael Trazzi, l’un des manifestants londoniens, a tenu 7 jours avant de s’arrêter après deux épisodes de perte de conscience, mais continue de soutenir Denys Sheremet, toujours en grève. Il a adressé une lettre à Demis Hassabis, PDG de DeepMind, demandant une première étape concrète : un engagement public à suspendre le développement des modèles d’IA de pointe si tous les grands acteurs mondiaux (Occident et Chine) suivent. Trazzi, qui réfléchit aux risques de l’IA depuis 2017, souligne que la course actuelle est motivée par des incitations économiques déréglées, nécessitant une régulation forte. Il note que certains employés de DeepMind reconnaissent le risque d’extinction, tout en restant dans l’entreprise par conviction en sa posture de « sécurité la plus rigoureuse ». Google DeepMind a répondu par une déclaration générale sur la priorité accordée à la sécurité et à la gouvernance responsable, sans commenter directement la lettre. Aucun des dirigeants n’a encore répondu aux appels personnels. Pour Reichstadter et Trazzi, l’objectif n’est pas seulement de provoquer une réaction, mais d’insuffler un changement de conscience : « Nous sommes dans une course incontrôlée vers le désastre. Si une issue existe, elle passera par la volonté de dire la vérité : nous ne sommes pas maîtres de ce que nous créons. Il faut demander de l’aide. » Les experts en sécurité de l’IA partagent une inquiétude croissante, même si leurs visions divergent sur les menaces précises ou les solutions. Toutefois, une majorité s’accorde sur un point : le rythme actuel du développement de l’IA, sans cadre réglementaire global, pose des risques inacceptables pour l’humanité, notamment en renforçant les régimes autoritaires et en menaçant l’emploi, la démocratie et la survie même de notre civilisation.
