Chatbots ne protègent pas la confidentialité juridique : une décision judiciaire met en garde contre l'utilisation d'IA pour préparer sa défense
Un juge fédéral a tranché mardi que les échanges avec l’IA Claude, réalisés par Brad Heppner, fondateur d’une start-up financière accusé de fraude d’un montant de 150 millions de dollars, n’étaient pas protégés par le secret professionnel. Ces conversations, tenues après qu’Heppner eut reçu une assignation, engagé des avocats et été identifié comme cible par les procureurs, ont été saisies lors de son arrestation dans sa résidence de Dallas, où des dizaines d’appareils électroniques ont été confisqués. Heppner, cofondateur de la société Beneficient, est poursuivi pour fraude par fil et en matière de valeurs mobilières, dans le cadre du déclin de GWG Holdings. Son avocat a affirmé que les 31 échanges avec Claude avaient été conçus dans un but stratégique : préparer des rapports sur la défense, les faits et la loi, afin de les discuter avec son équipe juridique. Cependant, le juge Jed Rakoff a jugé que cette confidentialité avait été compromise en raison de l’usage d’un tiers — l’IA — qui, selon ses propres conditions d’utilisation, n’assurait aucune protection des données. Le juge a souligné que Claude avait expressément prévu que les contenus transmis pouvaient être divulgués. Les autorités ont rappelé que la politique de confidentialité de Claude autorisait la divulgation des conversations, et ont ajouté que les échanges ne pouvaient pas bénéficier du « privilege de la matière préparatoire » (work product privilege), car les avocats de Heppner n’avaient pas demandé à leur client d’utiliser l’IA. Cette décision a suscité une vive réaction parmi les professionnels du droit. Moish Peltz, avocat, a estimé que la décision était « dans la bonne direction », soulignant que de nombreux documents sensibles sont désormais saisis par des outils d’IA, créant un « cauchemar de découverte » en procédure civile. Noah Bunzl, avocat spécialisé en droit du travail, a noté que cette affaire pourrait surprendre nombre de personnes qui pensent que leurs échanges avec une IA restent privés. Il s’agit toutefois d’un cas marquant : bien que des affaires antérieures aient vu l’usage de ChatGPT dans des litiges — notamment dans une transaction d’acquisition de société ou dans le procès du New York Times contre OpenAI — celui-ci est le premier où l’usage d’une IA pourrait entraîner la perte du secret professionnel. Les avocats de Debevoise & Plimpton ont souligné que c’était la première affaire connue où l’utilisation d’un modèle d’IA aurait conduit à la perte de la protection du secret professionnel. Ils prévoient que les tribunaux pourraient adopter une approche plus nuancée en cas d’utilisation d’outils d’IA spécifiquement conçus pour les entreprises. Arlo Devlin Brown, avocat spécialisé en défense pénale, a mis en garde : bien que les IA puissent améliorer la gestion des informations juridiques, l’incertitude juridique actuelle exige une vigilance accrue. « Jusqu’à ce que la loi soit clarifiée, les avocats doivent avertir leurs clients que l’entrée d’informations privilégiées dans une IA expose ces données à une divulgation en procès », a-t-il écrit dans un courriel. Les représentants du Bureau du Procureur fédéral du Sud de New York, d’Anthropic et de l’équipe de défense d’Heppner n’ont pas répondu aux demandes de commentaire.
