Anthropic coupe l'accès d'OpenAI aux modèles Claude, accusant une utilisation non autorisée
Anthropic a retiré l’accès d’OpenAI à ses modèles d’intelligence artificielle Claude, selon un rapport de Wired. Selon des sources proches du dossier, OpenAI utilisait les outils internes de Claude pour comparer ses performances à celles de ses propres modèles, notamment dans des domaines comme le codage, la rédaction et la sécurité. TechCrunch s’est adressée à Anthropic et OpenAI pour obtenir un commentaire. Dans une déclaration à Wired, un porte-parole d’Anthropic a indiqué que « le personnel technique d’OpenAI utilisait également nos outils de codage avant le lancement de GPT-5 », ce qui constituerait selon lui « une violation directe de nos conditions d’utilisation ». En effet, les conditions commerciales d’Anthropic interdisent aux entreprises d’utiliser Claude pour développer des services concurrents. En réaction, un porte-parole d’OpenAI a déclaré : « Bien que nous respections la décision d’Anthropic de nous retirer l’accès à son API, nous la trouvons décevante, d’autant que notre propre API reste disponible pour eux. » Cette décision s’inscrit dans une logique plus large de restriction de l’accès aux modèles d’Anthropic par des concurrents. Les dirigeants d’Anthropic avaient déjà manifesté leur réticence à fournir ses technologies à des entreprises rivales. En particulier, le directeur scientifique Jared Kaplan avait justifié le retrait d’accès à Windsurf — une entreprise qui faisait l’objet de rumeurs de rachat par OpenAI, avant d’être finalement acquise par Cognition — en affirmant que « ce serait étrange pour nous de vendre Claude à OpenAI ». Cette position reflète une stratégie plus prudente de protection de ses actifs technologiques face à une concurrence de plus en plus vive dans le domaine de l’intelligence artificielle.