HyperAIHyperAI
Back to Headlines

KI im britischen Justizsystem verschleiert Folgen von Jahren der Unterfinanzierung

vor 4 Tagen

Die britische Justiz steht vor einer tiefgreifenden Krise, die durch mehr als ein Jahrzehnt massiver Unterfinanzierung durch aufeinanderfolgende Regierungen verursacht wurde. Ein erheblicher Fallrückstand, ständige Verschiebungen von Gerichtsterminen und strukturelle Engpässe sind die Folge. Die Justizsysteme in England und Wales, Schottland und Nordirland sind zudem nicht einheitlich, was die Koordination und Modernisierung erschwert. In diesem Kontext setzen politische Einflussgruppen wie das Tony Blair Institute und die Thinktank Policy Exchange auf Künstliche Intelligenz (KI) als Lösung für die Probleme im öffentlichen Sektor. Die Labour-Regierung hatte im Januar 2025 ein umfassendes KI-Programm angekündigt, um Wirtschaftswachstum zu beschleunigen und öffentliche Dienstleistungen zu revolutionieren – auch im Justizbereich. Die aktuelle KI-Debatte konzentriert sich vor allem auf große Sprachmodelle (LLMs), wie sie hinter Chatbots wie ChatGPT stehen. Obwohl bereits frühere KI-Anwendungen wie Technologiegestützte Dokumentenbewertung oder Risikobewertungsalgorithmen in Strafvollzugs- und Einwanderungsfällen eingesetzt wurden, sind diese oft umstritten: Sie können bestehende soziale Ungleichheiten verstärken und entscheidungsrelevante Fehler verursachen, ohne dass Betroffene Kenntnis davon haben. Im Gegensatz dazu zielen die neuen LLM-basierten Tools auf administrative Effizienz – sie erstellen Protokolle, fassen Rechtsprechung zusammen, planen Termine und unterstützen bei der Dokumentenanalyse. Der Old Bailey berichtete von einer Einsparung von 50.000 Pfund durch KI-gestützte Beweiszusammenfassungen. Doch die Implementierung dieser Technologien hängt entscheidend vom Kontext ab. Wenn KI nicht zur Entlastung von Fachkräften dient, sondern zur Kostensenkung eingesetzt wird, trifft das besonders benachteiligte Gruppen. Ein Pilotprojekt des Innenministeriums zur KI-gestützten Zusammenfassung von Asylverfahren ergab, dass 9 % der Auswertungen falsch waren und Interviewstellen fehlten, während 23 % der Nutzer trotz Zeitersparnis kein volles Vertrauen in die Ergebnisse hatten. Die KI-Strategie des Justizministeriums für 2025 sieht eine flächendeckende Einführung für 95.000 Mitarbeiter bis Dezember vor, mit einem Chief-AI-Officer, ethischen Leitlinien und einem Fokus auf „Unterstützung, nicht Ersatz“ menschlicher Urteilsfähigkeit. Dennoch bleibt die Nutzung von KI zur Einschätzung von Gewaltausbruchsrisiken in Haft umstritten. Im Juni 2025 warnte ein hochrangiger britischer Richter vor der Verwendung von LLMs, da sie „Halluzinationen“ erzeugen können – also fiktive oder falsche Informationen. Solche Fälle wurden bereits international dokumentiert, wo KI-generierte Beweise vor Gericht eingereicht wurden. Die Vorteile von KI zeigen sich nur dort, wo ausreichend menschliche Überwachung möglich ist. Wo Ressourcen knapp sind, verschärft KI die Ungerechtigkeit. Ähnlich wie frühere Digitalisierungsprojekte – etwa automatisierte Schuldgeständnisse – wirken auch KI-Systeme oft als „Papierüberzug“ über strukturelle Defizite. Sie verbergen die zugrundeliegenden Probleme, ohne sie zu lösen. Experten wie Gemma Birkett von der City St George’s University warnen, dass automatisierte Systeme besonders marginalisierte Frauen beeinträchtigen, die häufig aus Angst oder mangelndem Zugang zur Rechtsberatung schuldig bekennen, obwohl sie unschuldig sind. KI kann zwar die Verwaltung entlasten, aber ohne tiefgreifende Reformen und ausreichende Finanzierung führt sie nicht zu einer gerechteren Justiz. Vielmehr droht sie, die bestehenden Ungerechtigkeiten zu verfestigen und den Fallrückstand weiter zu vergrößern. Die Einführung von KI sollte daher nicht als Ersatz für Investitionen in Menschen und Systeme dienen, sondern als Werkzeug, das nur im Rahmen einer umfassenden Modernisierung sinnvoll ist.

Related Links