Les craintes d’un apocalypse IA masquent les dégâts réels que les entreprises infligent aujourd’hui
Les craintes d’un apocalypse liée à l’intelligence artificielle permettent aux entreprises d’échapper à toute responsabilité, affirme un professeur. Tobias Osborne, physicien théoricien à l’Université Leibniz de Hanovre et cofondateur de la société de communication scientifique Innovailia, estime que l’obsession des scénarios futuristes — comme la montée d’un superintelligent incontrôlable ou une « singularité » menaçant l’humanité — détourne l’attention des dégâts concrets que les technologies d’IA causent déjà. Dans un essai publié cette semaine, il dénonce ces récits apocalyptiques comme une distraction dangereuse, qui permet aux géants du secteur de se soustraire à toute forme de responsabilité. Selon Osborne, pendant que décideurs et experts s’interrogent sur une éventuelle menace existentielle, les entreprises continuent de causer des « dommages réels, aujourd’hui, mesurables ». « L’apocalypse n’est pas en route, écrit-il. Le dystopie est déjà là. » Ces scénarios d’apocalypse, largement relayés par des chercheurs en IA, des dirigeants technologiques et des rapports gouvernementaux, servent en réalité à renforcer l’image des entreprises comme des gardiens de la sécurité nationale, plutôt que comme des fabricants de produits. Cette perception, selon Osborne, affaiblit la responsabilité légale, freine la régulation ordinaire et ouvre la voie à une certaine opacité, à des subventions publiques et à une immunité face aux conséquences de leurs actions. Parmi les risques les plus négligés, il cite les effets psychologiques négatifs liés à l’usage des chatbots, ainsi que la violation massive des droits d’auteur et l’expropriation de données sans consentement. Ces récits d’apocalypse, ajoute-t-il, sont faciles à vendre, difficiles à réfuter, et permettent aux entreprises de déplacer le risque sur la société tout entière. Alors que l’Union européenne met en œuvre progressivement son cadre réglementaire, l’AI Act, à partir de 2026, les États-Unis adoptent une approche inverse, en cherchant à limiter la régulation aux niveaux étatiques et à maintenir des normes fédérales aussi peu contraignantes que possible. Osborne liste plusieurs préjudices actuels que ces débats apocalyptiques occultent : l’exploitation de travailleurs peu payés chargés deannoter les données d’entraînement, le scraping massif des œuvres d’artistes et d’écrivains, l’impact environnemental des centres de données énergivores, ainsi que la prolifération de contenus générés par l’IA, qui rend plus difficile la recherche d’informations fiables en ligne. Il rejette également l’idée d’un « explosion d’intelligence » incontrôlable, qu’il qualifie de « théologie eschatologique déguisée en langage scientifique ». Selon lui, ces scénarios s’effondrent face aux limites physiques, comme la consommation d’énergie et les lois de la thermodynamique. « Ce ne sont pas des problèmes d’ingénierie attendant une solution brillante, écrit-il. Ce sont des conséquences de la physique. » Plutôt que de s’attarder sur des menaces hypothétiques, Osborne appelle à appliquer les lois existantes sur la responsabilité des produits et le devoir de vigilance aux systèmes d’IA. Il n’est pas opposé à l’IA en soi — il souligne même ses bienfaits, notamment pour les personnes handicapées qui peinent à communiquer par écrit. Mais il met en garde : sans responsabilité, les bénéfices risquent d’être noyés dans des dérives de pouvoir, d’opacité et de décision non démocratique. « Les vrais problèmes, écrit-il, sont les problèmes très ordinaires, très humains : le pouvoir, la responsabilité, et qui décide de la façon dont ces systèmes sont conçus et déployés. »
