Les "Fichiers OpenAI" mettent en lumière la nécessité de contrôle dans la course à l'intelligence artificielle générale
Le PDG d'OpenAI, Sam Altman, affirme que l'humanité n'est qu'à quelques années du développement de l'intelligence artificielle généralisée (IA-G), une technologie capable de prendre en charge la plupart des tâches humaines. Si cette prédiction se révèle exacte, il est impératif que l'humanité comprenne les mécanismes et soit impliquée dans les décisions qui façonnent cette force potentiellement transformatrice. C'est dans cet esprit que « The OpenAI Files » ont été lancés. Ce projet d'archive, mené par le Midas Project et le Tech Oversight Project, deux organisations à but non lucratif surveillant l'éthique technologique, se présente comme une collection de préoccupations documentées concernant les pratiques de gouvernance, l'intégrité des dirigeants et la culture organisationnelle d'OpenAI. Outre sa vocation d'éveil, le projet vise à proposer des mesures concrètes pour une gouvernance responsable, une direction éthique et une répartition équitable des bénéfices. Le site web associé met en avant que les structures de gouvernance et l'intégrité des dirigeants, au sein d'un projet aussi crucial, doivent être à la hauteur de l'importance et de la gravité de la mission. Les sociétés en compétition pour atteindre l'IA-G doivent se conformer à des normes exceptionnellement élevées, tant envers elles-mêmes qu'envers les parties prenantes. Jusqu'à présent, cette course à la domination en IA a engendré une croissance rapide et sans retenue, marquée par la collecte massive de contenus sans le consentement des créateurs et la construction de vastes centres de données, contribuant à des coupures de courant et à des hausses des coûts d'électricité pour les consommateurs locaux. La pression de commercialiser rapidement ces technologies a également conduit les entreprises à déployer des produits avant d'avoir mis en place les garde-fous nécessaires, sous l'influence grandissante des investisseurs soucieux de profits. Cette pression financière a profondément modifié la structure initiale d'OpenAI. Le projet « The OpenAI Files » rapporte que, dans ses premiers jours d'association à but non lucratif, la société avait fixé un plafond de 100 fois sur les profits des investisseurs, afin que toutes les recettes générées par la réalisation de l'IA-G soient réinvesties dans l'intérêt de l'humanité. Cependant, OpenAI a since annoncé son intention de supprimer ce plafond, reconnaisant que ces modifications visaient à satisfaire des investisseurs exigeant des réformes structurelles pour maintenir leur financement. Les « Files » soulignent également des problèmes critiques, tels que les processus d'évaluation de la sécurité accélérés et « une culture de légèreté » au sein d'OpenAI. Elles mettent en lumière les potentiels conflits d'intérêts liés aux membres du conseil d'administration et à Sam Altman lui-même. On trouve, par exemple, une liste de startups susceptibles de faire partie du portefeuille d'investissements personnel d'Altman, dont les activités se chevauchent avec celles d'OpenAI. La controverse autour de l'intégrité d'Altman s'est exacerbée en 2023, lorsque des employés de haut niveau ont tenté de le démettre de ses fonctions, en raison de comportements qualifiés de « trompeurs et chaotiques ». Au moment de ces événements, Ilya Sutskever, ancien chef scientifique d'OpenAI, aurait déclaré : « Je ne pense pas que Sam soit celui qui devrait avoir le doigt sur le bouton pour l'IA-G. » Les questions et propositions de solutions élevées par les « OpenAI Files » nous rappellent que le pouvoir colossal derrière l'IA-G repose actuellement dans les mains d'une poignée d'individus, avec peu de transparence et une supervision limitée. Ce projet offre un aperçu critique de ce « boîtier noir » et cherche à recentrer la discussion sur la responsabilité plutôt que sur l'inévitable. Rebecca Bellan, journaliste senior à TechCrunch, couvre notamment Tesla et l'empire plus vaste d'Elon Musk, ainsi que les sujets liés à l'autonomie, l'IA, l'électrification, les plates-formes de travail à la demande et la régulation des grandes technologies. Elle coprésente l'émission « Equity » et rédige la newsletter matinale quotidienne de TechCrunch. Préalablement, elle a couvert les réseaux sociaux pour Forbes.com, et ses contributions ont été publiées dans Bloomberg CityLab, The Atlantic, The Daily Beast, Mother Jones, i-D (Vice), entre autres. Rebecca a investi dans Ethereum.