HyperAIHyperAI
Back to Headlines

L’IA dans la justice britannique : une solution miracle ou un masque pour des déficits structurels ?

il y a 4 jours

Depuis plus d’une décennie, le système judiciaire britannique souffre d’un sous-financement chronique, entraînant un important retard dans le traitement des affaires et des annulations de dates de procès liées à des problèmes logistiques. Composé de trois systèmes juridiques distincts — Angleterre et Pays de Galles, Écosse et Irlande du Nord — il est confronté à des défis structurels profonds. Face à cette crise, des institutions politiques comme l’Institut Tony Blair et le think tank Policy Exchange plaident pour une adoption massive de l’intelligence artificielle (IA) dans le secteur public, y compris la justice. L’idée est de libérer le personnel des tâches administratives répétitives afin de leur permettre de se concentrer sur les aspects humains du travail judiciaire, comme les échanges directs avec les clients. En janvier, le gouvernement travailliste a lancé un plan visant à « débloquer » l’IA dans tout le pays, avec pour objectif de stimuler la croissance, améliorer les conditions de vie et transformer les services publics. Cette stratégie s’appuie principalement sur les modèles de langage à grande échelle (LLM), comme ceux derrière ChatGPT, capables de rédiger des rapports, planifier des réunions, transcrire des entretiens ou synthétiser des textes juridiques. Des outils similaires existent depuis des années, notamment dans le cadre du « review assisté par technologie » utilisé pour trier des documents, ou des algorithmes de notation de risque utilisés en probation ou dans les affaires d’immigration. Ces derniers ont été critiqués pour renforcer les inégalités et prendre des décisions cruciales sans transparence ni contrôle humain. Les nouveaux outils basés sur les LLM, bien qu’ils soient conçus pour simplifier les tâches administratives, posent toutefois des risques sérieux. Une étude pilote du Home Office a révélé que 9 % des résumés générés par IA contenaient des erreurs ou omettaient des références aux entretiens, tandis que 23 % des utilisateurs n’avaient pas confiance dans les résultats, malgré des gains de temps significatifs. En juillet 2025, le ministère de la Justice a publié son plan d’action sur l’IA, prévoyant une mise en œuvre pour 95 000 agents d’ici décembre, avec la création d’un responsable principal de l’IA, des lignes directrices éthiques et une plateforme de transparence. Toutefois, le plan prévoit aussi des usages controversés, comme l’évaluation du risque de violence en détention. Un juge britannique a mis en garde en juin 2025 contre l’utilisation des LLM, soulignant leur tendance à « halluciner » — c’est-à-dire à produire des informations fausses ou fictives. Des cas similaires ont déjà été documentés à l’étranger, où des documents générés par IA ont été déposés dans des procédures judiciaires. Les bénéfices de ces outils ne seront réels que là où il existe une supervision humaine adéquate. Or, dans les zones déjà surchargées et sous-financées, les erreurs risquent d’être amplifiées, affectant surtout les plus vulnérables. Comme le rappelle Gemma Birkett, spécialiste de la justice pénale à l’université City St George, les systèmes automatisés ont déjà conduit des femmes marginalisées à plaider coupables à des crimes qu’elles n’ont pas commis. L’IA, dans ce contexte, ne résout pas les problèmes fondamentaux du système, mais risque de les masquer. Au lieu de réformer les structures défaillantes, elle pourrait renforcer les inégalités. Une adoption rapide de ces outils sans compréhension approfondie de leurs impacts pourrait même aggraver la surcharge des tribunaux. En fin de compte, l’IA ne peut remplacer la justice humaine, surtout quand celle-ci est déjà fragilisée par des décennies d’austérité.

Related Links