HyperAIHyperAI
Back to Headlines

Le dilemme du maître des crises : Chris Lehane et l’illusion d’une IA au service de l’humanité

il y a 6 jours

Chris Lehane, expert en gestion de crise et ancien conseiller de Al Gore, est aujourd’hui au cœur d’un défi sans précédent : incarner une vision humaniste de l’intelligence artificielle pour OpenAI, alors que l’entreprise se rapproche de plus en plus du modèle classique des géants technologiques – puissants, opaques, et parfois prédatifs. Deux ans après son arrivée en tant que vice-président de la politique mondiale chez OpenAI, Lehane se retrouve confronté à une contradiction fondamentale : convaincre le monde que l’IA doit servir l’humanité, tout en voyant son entreprise déployer des pratiques qui semblent contredire cette promesse. À la conférence Elevate à Toronto, Lehane a su manier les mots avec une maîtrise remarquable. Il a exprimé des inquiétudes sincères, évoqué ses nuits blanches, et défendu Sora, le nouvel outil de génération vidéo, comme une technologie « générale » au potentiel démocratique comparable à l’électricité ou à l’imprimerie. Pourtant, derrière ce discours, des faits inquiétants émergent. OpenAI a initialement permis aux titulaires de droits d’opter pour l’exclusion de leurs œuvres dans les données d’entraînement, mais a rapidement pivoté vers un modèle implicite, exploitant les contenus protégés dès lors qu’ils suscitaient un engouement massif. Cette évolution n’est pas une amélioration, mais une stratégie de test du seuil de tolérance. Lehane a invoqué le « fair use » américain comme arme juridique et idéologique, prétendant que ce cadre légal soutient la domination technologique américaine. Mais, comme le souligne une interview récente avec Al Gore, cette logique rend désormais superflue la lecture d’un article – il suffit de demander à ChatGPT. « C’est itératif, mais aussi une substitution », ai-je lancé. Pour la première fois, Lehane a semblé hésiter : « Nous allons devoir tout réinventer. » L’infrastructure pose un autre dilemme. OpenAI développe des centres de données géants à Abilene (Texas) et Lordstown (Ohio), des zones économiquement fragiles, avec une consommation énergétique colossale – un gigawatt par semaine. Lehane parle de modernisation énergétique, de renaissance industrielle, mais ignore la réalité des habitants dont les factures d’électricité risquent de exploser. Et ce, alors que la génération vidéo est l’une des tâches les plus gourmandes en énergie. Le cas de Zelda Williams, qui a dénoncé sur Instagram les vidéos générées par IA de son père Robin Williams, illustre l’atteinte émotionnelle et éthique que ces technologies peuvent causer. Lehane a répondu par des termes techniques – « processus responsables », « cadres de test » – mais sans aborder la souffrance humaine directe. Le tournant décisif est venu vendredi, lorsque Nathan Calvin, avocat chez Encode AI, a révélé qu’un huissier avait été envoyé chez lui à Washington, D.C., pour lui signifier une assignation, dans le cadre d’une affaire liée à la loi californienne SB 53 sur la sécurité de l’IA. Calvin accuse OpenAI de harcèlement, d’utiliser le conflit avec Elon Musk comme prétexte pour intimider ses opposants. Il a qualifié Lehane de « maître des arts obscurs de la politique » – un éloge dans le monde de Washington, mais une condamnation pour une entreprise qui prétend servir l’humanité. Le plus troublant ? La voix d’un employé interne. Josh Achiam, chef de l’alignement de mission chez OpenAI, a tweeté, au risque de sa carrière : « Nous ne devons pas devenir une puissance effrayante. Nous avons un devoir envers l’humanité. » Ce moment de conscience collective, venu d’un homme qui a choisi de travailler pour OpenAI, révèle que même au sein de l’entreprise, le doute s’installe. La question n’est plus seulement de savoir si Chris Lehane peut vendre la mission d’OpenAI. Elle est de savoir si, au fond, quelqu’un – surtout ceux qui y travaillent – y croit encore.

Related Links