HyperAI
Back to Headlines

Les avocats risquent de lourdes sanctions pour des citations juridiques fausses générées par IA, selon un avertissement du tribunal britannique

il y a 19 jours

Le tribunal suprême d'Angleterre et du Pays de Galles met en garde les avocats contre les conséquences sévères de la production de citations AI-faussées. Dans sa décision, qui juxtapose deux cas récents, la juge Victoria Sharp explique que des outils d'IA générative, tels que ChatGPT, ne sont pas en mesure de mener une recherche juridique fiable. Selon la magistrate, « ces outils peuvent produire des réponses apparemment cohérentes et plausibles, mais ces réponses peuvent s'avérer entièrement incorrectes. Ils peuvent énoncer des affirmations pleines de confiance qui sont en réalité tout simplement fausses ». Cela ne signifie cependant pas qu'il est interdit aux avocats d'utiliser l'intelligence artificielle dans leur travail. Cependant, ils ont une obligation professionnelle de vérifier la justesse de cette recherche en se référant à des sources autorisées avant de l’utiliser dans le cadre de leurs activités professionnelles. La juge Sharp attire l'attention sur une montée en nombre de dossiers oùdes avocats, dont certains représentant de grands plateformes d'IA aux États-Unis, ont cité des faux apparents produits par l'IA. Elle indique que cela suggère que des mesures supplémentaires doivent être prises pour s'assurer que les directives soient respectées et que les avocats remplissent leurs devoirs envers le tribunal. Sa décision sera communiquée aux organismes professionnels, notamment le Conseil de la profession d'avocat (Bar Council) et la Société des avocats (Law Society). Un premier cas mettait en jeu un avocat défendant une personne dédommagée par deux banques. Ce dernier avait soumis un document contenant 45 citations, dont 18 n'avaient aucune base légale réelle, tandis que de nombreux autres textes "ne contenaient pas les citations qui leur étaient attribuées, ne soutenaient pas les propositions pour lesquelles ils étaient cités, et n'étaient pas pertinents pour le sujet de l'application", note la juge Sharp. Dans le second cas, un homme évicté de son domicile londonien a vu son avocat produire un mémoire de procédure citant cinq décisions judiciaires inexistantes. Bien que l'avocat ait nié avoir utilisé l'IA, il a admis que les citations pourraient provenir de résumés générés par l'IA et trouvés sur des moteurs de recherche comme Google ou Safari. La juge Sharp précise que si le tribunal a choisi de ne pas engager de poursuites pour outrage, cela ne constitue pas un précédent. Elle rajoute : "Les avocats qui ne respectent pas leurs obligations professionnelles risquent une sanction sévère." Les deux avocats concernés, par eux-mêmes ou grâce à la décision du tribunal, ont été renvoyés à des organes de régulation. Comme le souligne la juge Sharp, lorsque les avocats manquent envers leurs obligations envers le tribunal, ce dernier dispose d'éventuelles sanctions allant d'un blâme public à l'imposition de frais, en passant par des poursuites pour outrage, voire un signalement à la police, soulignant ainsi la gravité de ces actes. Ce verdict met particulièrement en lumière les risques potentiels associés à l'usage non supervisé de l'IA par les professionnels du droit et invite à une vigilance accrue pour protéger l'intégrité de la justice britannique.

Related Links