OpenAI s’oppose à la demande du New York Times de divulguer 20 millions de conversations privées utilisateurs
OpenAI s’oppose fermement à la demande du New York Times visant à accéder à 20 millions de conversations privées utilisateurs de ChatGPT, une requête qu’elle juge excessive, injustifiée et gravement préjudiciable à la confidentialité des utilisateurs. Chaque jour, des centaines de millions de personnes font confiance à ChatGPT pour des échanges sensibles — qu’il s’agisse de réflexions personnelles, de documents privés, de données financières ou de conversations intimes. Ces données constituent une partie essentielle de la vie numérique de chacun, et OpenAI s’est engagée à les protéger avec des mesures de sécurité et de confidentialité parmi les plus strictes au monde. Le New York Times poursuit OpenAI dans un litige sans fondement, dans lequel il demande à la justice de forcer la société à produire 20 millions de conversations aléatoires, datant de décembre 2022 à novembre 2024. Cette demande, qui concerne des échanges sans lien direct avec les allégations du journal, va bien au-delà de ce qui est raisonnable ou nécessaire. Elle constitue une atteinte flagrante au droit à la vie privée, car elle exposerait des milliers de conversations personnelles à des tiers — notamment les avocats et consultants du New York Times — sans lien avec le fond du litige. Cette démarche n’est pas nouvelle. Le journal avait déjà tenté, dans un premier temps, de supprimer la possibilité pour les utilisateurs de supprimer leurs conversations, une mesure que OpenAI a repoussée avec succès. Il avait ensuite demandé l’accès à 1,4 milliard de conversations, une requête que nous avons également combattue et rejetée par la justice. Le fait que cette nouvelle demande soit à nouveau si large et invasive nous alerte : il ne s’agit pas d’une démarche judiciaire équilibrée, mais d’un effort systématique pour obtenir des données privées au détriment des droits des utilisateurs. OpenAI a proposé des alternatives respectueuses de la vie privée, comme une recherche ciblée sur des fragments de conversations contenant des extraits du contenu du New York Times, ou une analyse structurée des usages de ChatGPT par les utilisateurs. Ces solutions auraient permis au journal d’obtenir des éléments pertinents sans compromettre la confidentialité de millions d’utilisateurs. Malheureusement, ces propositions ont été rejetées. Toutefois, nous avons mis en place des mesures strictes pour protéger les données en cas de production : les conversations seront désidentifiées, les informations personnelles (PII) et les données sensibles (comme les mots de passe) seront supprimées, et les données seront stockées dans un système sécurisé, isolé et protégé par une conservation judiciaire. Seuls des membres restreints de l’équipe juridique et de sécurité d’OpenAI pourront y accéder, dans le cadre strict de leurs obligations légales. Le New York Times est tenu par la loi de ne pas divulguer ces données en dehors du cadre judiciaire. Mais nous restons vigilants : si la divulgation devait se produire, nous ferons tout en notre pouvoir pour protéger la confidentialité de nos utilisateurs. En parallèle, OpenAI accélère l’implémentation de sa feuille de route en matière de sécurité et de confidentialité, notamment le cryptage client des messages, des systèmes automatisés de détection des menaces, et un processus de revue humaine strictement limité aux cas de risque majeur (menaces à la vie, harcèlement, cyberattaques). Ces fonctionnalités, qui seront bientôt déployées, visent à garantir que les conversations restent privées, même pour OpenAI elle-même. Nous croyons fermement que l’avenir de l’intelligence artificielle doit être fondé sur la confiance, la sécurité et la confidentialité. C’est pourquoi nous continuerons à défendre les droits des utilisateurs, même face à des pressions légales disproportionnées. La vie privée n’est pas un compromis — elle est une obligation.
