HyperAI
Back to Headlines

Un juge américain retire sa décision après avoir détecté des erreurs suspectes liées à l'IA

il y a 8 jours

Un juge d’un tribunal fédéral américain a retiré sa décision dans une affaire de valeurs mobilières liée à une entreprise de biopharmacie après que les avocats aient signalé que son texte contenait des citations erronées, notamment des citations fictives et des informations incorrectes sur d’autres affaires. Ces erreurs ressemblent à celles constatées dans d’autres cas juridiques, qui ont été attribuées à des outils d'intelligence artificielle. Dans une lettre adressée au juge Julien Xavier Neals du New Jersey, l'avocat Andrew Lichtman a souligné qu'il existait « une série d'erreurs » dans la décision du juge refusant la demande de rejet d'une poursuite déposée par l'entreprise pharmaceutique CorMedix. Parmi ces erreurs, certaines concernaient des conclusions erronées de trois autres affaires, et plusieurs citations étaient des inventions, attribuées à des décisions qu'elles n'avaient pas réellement émises. Selon Bloomberg Law, une nouvelle notification publiée sur le registre du tribunal mercredi indique que « cette décision et cet ordre ont été rendus par erreur », et qu'une « nouvelle décision et ordre suivront ». Bien que les tribunaux fassent régulièrement des corrections mineures après un jugement — comme des erreurs grammaticales, orthographiques ou de style — des modifications importantes, comme la suppression de paragraphes ou la rédaction d'une nouvelle décision, sont exceptionnelles. Aucune preuve n’a encore été apportée pour affirmer que l’intelligence artificielle a été utilisée dans ce cas précis. Cependant, les erreurs de citations rappellent les hallucinations d’IA observées dans d’autres documents juridiques, alors que les avocats recourent de plus en plus à des outils comme ChatGPT pour leur recherche. En début de mois, des avocats défendant Mike Lindell, fondateur de MyPillow, ont été condamnés à une amende pour avoir utilisé des citations générées par l’IA. De plus, Anthropic a reconnu que son chatbot Claude avait commis une citation erronée « embarrassante » dans son propre litige avec des éditeurs musicaux. Ces exemples montrent que les modèles de langage à grande échelle (LLM) ne remplaceront pas les avocats en temps proche.

Related Links