Sam Altman s'en prend violemment au New York Times lors d'une interview podcast
Sam Altman en confrontations avec les médias : l'exemple emblématique d'un tournant à Silicon Valley Lors de la soirée du mercredi à San Francisco, lors d'une entrevue mémorable sur le podium d'un lieu habituellement dédié aux concerts de jazz, Sam Altman, CEO d'OpenAI, et son directeur des opérations, Brad Lightcap, ont fait une entrée brusque et inattendue. La foule venue pour assister à l'enregistrement du podcast populaire "Hard Fork", animé par Kevin Roose (The New York Times) et Casey Newton (Platformer), n'était pas tout à fait préparée à ce revirement. Dès l'apparition des deux dirigeants d'OpenAI, qui avaient anticipé leur sortie sur scène, Altman s'est emparé de la conversation pour aborder frontalement le procès intenté par The New York Times. Le journal accuse OpenAI et son principal investisseur, Microsoft, d'avoir utilisé de manière déloyale ses articles pour entraîner leurs modèles de langage. Altman souligne que la demande de conserver les journaux des utilisateurs, même ceux en mode privé, lui pose un problème majeur. “Nous sommes censés préserver les données privées de nos utilisateurs, même s'ils nous demandent de les supprimer. Ça pose des questions très sérieuses sur la protection de la vie privée,” a-t-il déclaré, précisant malgré tout qu'il conserve un amour pour The New York Times, tout en étant ferme sur ce point. Les journalistes Roose et Newton, conscient de leur position délicate en tant qu'auteurs pour le journal, ont refusé de donner leur avis personnel sur ce litige. Cette interaction, bien que brève, symbolise le point de bascule actuel atteint par les relations entre l'industrie techno et celle des médias. Au cours des dernières années, de nombreux éditeurs ont porté plainte contre OpenAI, Google, Anthropic et Meta, alléguant que l'utilisation de leurs œuvres protégées par le droit d'auteur pour former des modèles IA les dévalorise et pourrait même les remplacer. Cependant, le vent semble avoir tourné en faveur des géants tech. Récemment, Anthropic, rival d'OpenAI, a remporté une importante victoire juridique. Un juge fédéral a jugé que l'utilisation de livres pour entraîner des modèles IA était légale dans certaines circonstances, une décision qui pourrait avoir des implications significatives pour les autres poursuites engagées contre OpenAI, Google et Meta. Ce contexte négociateur pourrait expliquer l'audace et l'affirmation d'Altman et Lightcap lors de leur interview. Cependant, OpenAI fait face à des menaces de toutes parts. Altman a également révélé, quelques semaines plus tôt sur le podcast de son frère, que Mark Zuckerberg tentait de recruter les talents les plus précieux d'OpenAI en leur offrant des packages de compensation de 100 millions de dollars pour rejoindre le laboratoire d'IA superintelligente de Meta. Lorsqu'on lui a demandé si ces tentatives de recrutement étaient sincères ou simplement des tactiques, Lightcap a lancé une pique ironique : “Je pense que Zuckerberg se considère comme superintelligent.” Plus tard, Roose a abordé la relation complexe entre OpenAI et Microsoft. Bien que Microsoft ait été autrefois un partenaire clé accélérant les progrès d'OpenAI, des tensions se font désormais sentir. Les entreprises négocient un nouveau contrat alors qu'elles entrent en concurrence dans les logiciels d'entreprise et d'autres domaines. "Dans toute relation profonde, il y a des moments de tension, et nous en avons certes nos parts," a admis Altman. "Nous sommes deux entreprises ambitieuses, donc nous trouvons des points de friction, mais je m'attends à ce que cela continue à créer de la valeur pour les deux parties à long terme." Alors que l'équipe dirigeante d'OpenAI dépense de plus en plus de temps à répondre à ces défis, on peut se demander si cela n'entrave pas sa capacité à traiter les problèmes plus larges liés à l'IA, tels que son déploiement sûr et à grande échelle. Newton a interrogé Altman et Lightcap sur les récentes histoires d'utilisateurs mentalement instables qui utilisaient ChatGPT pour explorer des sujets dangereux, y compris des théories du complot et le suicide. Altman a affirmé que sa société prend plusieurs mesures pour prévenir ces types de conversations, comme les interrompre prématurément ou orienter les utilisateurs vers des services professionnels d'aide. "Nous ne voulons pas reproduire les erreurs de la génération précédente de sociétés tech qui n'ont pas réagi suffisamment vite," a-t-il déclaré. Lors d'une question de suivi, il a ajouté, "Cependant, nous n'avons pas encore trouvé comment avertir efficacement les utilisateurs qui sont dans un état mental si fragilisé qu'ils sont au bord d'une rupture psychotique." Évaluation de l'événement par des professionnels de l'industrie Les experts de l'industrie tech considèrent que cette sortie houleuse d'Altman et Lightcap reflète les tensions croissantes que traversent les entreprises d'IA face aux pressions réglementaires et concurrentielles. OpenAI, ancienne entreprise discrète, est devenue le visage emblématique de l'intelligence artificielle, attirant ainsi une attention intense et une critique de plus en plus soutenue. Malgré ces défis, OpenAI continue de jouer un rôle crucial dans le développement de l'IA, soutenu par l'investissement massif de Microsoft et la volonté de rester à l'avant-garde de la technologie. Fondée en 2015, OpenAI se positionne comme une organisation à but non lucratif dédiée à l'avancement de l'IA d'une manière éthique et bénéfique pour l'humanité. Cependant, l'arrivée de ChatGPT et d'autres modèles de pointe a transformé la société en une cible préférée des détracteurs, soulevant des questions importantes sur l'équilibre entre innovation et responsabilité.