Juge fédéral approuve l'usage de livres piratés par Anthropic pour entraîner AI.
Le juge fédéral William Alsup a rendu une décision historique en déclarant que la société Anthropic avait le droit de former ses modèles d'intelligence artificielle (IA) sur des livres publiés sans l'autorisation des auteurs. Cette décision marque la première fois qu'un tribunal donne un poids juridique aux arguments de l'industrie de l'IA selon lesquels la doctrine du fair use peut justifier l'utilisation de matériel protégé par le droit d'auteur pour former des grands modèles linguistiques (LLM). Contexte et Déroulement de l'Affaire L'affaire, intitulée Bartz v. Anthropic, a été intentée en 2022 par trois auteurs, Andrea Bartz, Charles Graeber et Kirk Wallace Johnson, qui ont accusé Anthropic d'avoir utilisé des copies de leurs livres pour entraîner Claude, l'assistant conversationnel de l'entreprise. Les plaignants ont soutenu que ces pratiques constituaient une violation massive du droit d'auteur. Dans sa décision, rendue le 24 juin 2025, le juge Alsup a déterminé que l'utilisation des livres achetés légalement par Anthropic pour former ses modèles d'IA était "transformative" et tombait donc sous le couvert de la doctrine du fair use. Il a comparé cette pratique à celle d'un lecteur aspirant à devenir écrivain, qui étudie les œuvres existantes non pour les copier, mais pour créer quelque chose de nouveau. Alsup a écrit : "Comme tout lecteur qui aspire à être un écrivain, les LLM d'Anthropic ont été formés sur des œuvres, non pour les surpasser ou les remplacer, mais pour prendre un virage serré et créer quelque chose de différent." Cependant, le juge a également jugé que le téléchargement massif de millions de livres piratés pour constituer une bibliothèque centrale était illégal. Anthropic devra donc faire face à un procès séparé en décembre 2025 pour déterminer les dommages et intérêts liés à cette infraction. La décision souligne que même si l'entreprise a par la suite acheté des copies légales de certains livres, cela ne la dispense pas de sa responsabilité pour le vol initial. Implications Juridiques et Réactions de l'Industrie Cette décision pourrait avoir des implications importantes sur l'industrie de l'IA. Elle établit un précédent selon lequel l'utilisation de matériel protégé par le droit d'auteur pour former des LLM peut être considérée comme du fair use, du moins lorsqu'il s'agit de contenus acquis légalement. Cela pourrait encourager d'autres entreprises de technologie à poursuivre leurs efforts dans la formation de modèles d'IA, en se basant sur des sources légales de contenus. D'autres entreprises de technologie, comme OpenAI, Meta, Midjourney et Google, font face à des poursuites similaires pour l'utilisation de contenus protégés par le droit d'auteur dans la formation de leurs modèles d'IA. Ces cas dépendent souvent de l'interprétation individuelle des juges en matière de fair use, une exception au droit d'auteur qui n'a pas été mise à jour depuis 1976, bien avant l'ère d'internet et des LLM. Les critères du fair use prennent en compte plusieurs facteurs, notamment l'usage auquel l'œuvre est mise (comme la parodie ou l'éducation), la reproduction commerciale (par exemple, écrire de la fan fiction de Star Wars est autorisé, mais non son vente), et le degré de transformation de l'œuvre dérivée par rapport à l'originale. Position d'Anthropic Anthropic, fondée par d'anciens cadres d'OpenAI, a salué la décision du juge Alsup. Dans un communiqué, Jennifer Martinez, porte-parole d'Anthropic, a déclaré : "Nous sommes satisfaits que le tribunal ait reconnu que l'utilisation de 'œuvres pour former des LLM était transformante — spectaculairement transformante.' Conformément à la finalité du droit d'auteur, qui vise à stimuler la créativité et le progrès scientifique, 'les LLM d'Anthropic ont été formés sur des œuvres, non pour les surpasser ou les remplacer, mais pour prendre un virage serré et créer quelque chose de différent.'" Controverse et Prochaines Étapes Malgré ce verdict favorable, la décision n'aborde pas la question de savoir si les résultats produits par les modèles d'IA peuvent eux-mêmes violer les droits d'auteur. Cette question reste au cœur d'autres litiges en cours, tels que ceux intentés contre OpenAI et Microsoft par The New York Times en 2023, alléguant l'utilisation de millions d'articles pour former des chatbots automatisés. La controverse autour de l'utilisation de contenus protégés par le droit d'auteur pour former des modèles d'IA est loin d'être terminée. Alors que certaines entreprises médiatiques et éditeurs cherchent à compenser les pertes en licenciant leur contenu aux sociétés de technologie, d'autres continuent de lutter pour protéger leurs droits intellectuels. Contexte Broader Cette décision intervient dans un contexte où l'industrie de l'IA est en pleine expansion, avec des applications variées dans les domaines de l'éducation, de la recherche et de la création. Les experts en droit d'auteur et en technologie sont divisés sur les implications de cette décision. Certains y voient une validation nécessaire du progrès technologique, tandis que d'autres craignent une érosion des droits des créateurs et des artistes. L'industrie de l'IA continue de naviguer dans un paysage juridique complexe et en constante évolution. La décision du juge Alsup offre une clarté partielle, mais elle souligne également la nécessité d'une révision plus approfondie des lois sur le droit d'auteur pour s'adapter aux nouvelles technologies.