HyperAIHyperAI

Command Palette

Search for a command to run...

Les avocats combattent les hallucinations de l’IA avec… plus d’IA

Malgré les interdictions imposées par certaines cabinets, les avocats continuent de recourir aux chatbots publics comme ChatGPT, Claude ou Gemini pour rédiger des mémoires, souvent sans supervision. Face à des erreurs graves — notamment la citation de décisions judiciaires fictives — le cabinet Cozen O’Connor, après avoir été sanctionné par un juge du Nevada pour des citations bidon dans un dossier, a décidé de renforcer sa sécurité juridique en testant un outil de détection des hallucinations : Clearbrief. Cette startup propose une extension pour Word qui analyse les projets de mémoire en recherchant des citations erronées, des faits inventés ou des erreurs de référence. Le logiciel utilise le traitement du langage naturel pour comparer les références citées avec des bases de données juridiques réelles, et génère un rapport de vérification que les avocats peuvent conserver comme preuve de diligence. Le problème des hallucinations est en forte croissance : Damien Charlotin, analyste juridique, a recensé plus de 660 cas entre avril 2023 et mai 2025, dont la majorité impliquent des avocats de petits cabinets ou des justiciables représentés seuls. Les grandes firmes ne sont pas à l’abri, surtout lorsque des associés juniors, des parajuristes ou des consultants utilisent des outils d’IA sans contrôle. L’erreur n’est pas toujours intentionnelle, mais elle a des conséquences sérieuses, comme les sanctions financières ou la perte de crédibilité. Les hallucinations proviennent de la nature même des modèles de langage : ils prédise le mot suivant en se basant sur des données d’entraînement, sans garantie de vérité. Pour limiter ce risque, des géants du droit comme Thomson Reuters (Westlaw) et LexisNexis proposent désormais des assistants d’IA contrôlés, qui ne s’appuient que sur des bases de données juridiques vérifiées. Leur avantage ? Moins de fabrications, plus de fiabilité. LexisNexis a renforcé sa position en s’associant à Harvey, une start-up de technologie juridique valorisée à 8 milliards de dollars, qui intègre sa base de données et restreint les sources d’alimentation des modèles d’IA. Les réponses sont traçables, et les avocats peuvent consulter les logs d’origine des citations. Clearbrief, quant à elle, s’impose comme un outil de prévention. Son fonctionnement en plug-in Word permet de détecter les incohérences en temps réel, et de produire un historique de vérification. Pour Cozen O’Connor, ce système crée une chaîne de responsabilité : si un juge demande comment une citation a été validée, les partenaires peuvent montrer le rapport d’audit, le moment de la vérification et l’identité de la personne qui l’a effectuée. En définitive, la solution n’est pas d’interdire l’IA, mais de l’encadrer. Les avocats doivent apprendre à considérer les sorties d’IA comme un point de départ, non comme un document final. Et pour contrer les hallucinations, la réponse la plus efficace, ironiquement, est encore plus d’IA : des outils de vérification automatisée, intégrés dans les workflows, qui garantissent la fiabilité des documents juridiques avant leur dépôt.

Liens associés

Les avocats combattent les hallucinations de l’IA avec… plus d’IA | Articles tendance | HyperAI