HyperAIHyperAI

Command Palette

Search for a command to run...

Rechtssicherheit durch KI: Faktenprüfer gegen KI-Halluzinationen

Rechtsanwälte kämpfen gegen die Halluzinationen von KI – und die beste Antwort lautet: noch mehr KI. Obwohl viele Kanzleien wie Cozen O’Connor strikte Verbote gegen die Nutzung öffentlicher Chatbots wie ChatGPT, Claude oder Gemini erlassen haben, bleibt die Versuchung groß, insbesondere für jüngere Anwälte, solche Tools zur Erstellung von Rechtsakten zu nutzen. Die Konsequenzen sind ernst: Im September 2024 mussten zwei Anwälte von Cozen O’Connor ein Urteil mit gefälschten Rechtsprechungsbeispielen zurückziehen, nachdem sie ChatGPT zur Texterstellung eingesetzt hatten. Ein US-amerikanischer Bundesrichter verhängte eine Geldstrafe von je 2.500 US-Dollar oder die Verpflichtung, an ehemaligen Jurastudienkollegien und Rechtskammern über fachliche Unzulänglichkeiten zu referieren – beide Anwälte wählten die zweite Option. Der beteiligte Anwalt wurde entlassen, und die Kanzlei setzte nun auf präventive Technologie: Sie testet eine KI-Plattform namens Clearbrief, die Rechtsentwürfe auf gefälschte Zitate und erfundene Rechtsprechung prüft, ähnlich wie ein Rechtschreib-Check, nur für Fakten. Die Software nutzt natürliche Sprachverarbeitung, um falsche oder ungenaue Zitierungen zu erkennen und verknüpft sie mit den echten Quellen. Ein zentrales Argument für die Einführung: die Schaffung einer Dokumentationskette, die nachweist, wer wann welche Prüfung durchgeführt hat – ein entscheidender Punkt, da Partner rechtlich verantwortlich für die Richtigkeit ihrer Anträge sind. Doch die Problematik ist weit verbreitet. Der Rechtsdatenanalyst Damien Charlotin verfolgt seit 2023 Fälle mit KI-Halluzinationen und zählte bis Mai 2025 bereits 120, bis Dezember 2024 waren es 660 – mit einer Zunahme von bis zu fünf Fällen pro Tag. Die meisten betreffen Einzelanwälte oder kleine Kanzleien, doch auch große Kanzleien sind betroffen, wenn jüngere Mitarbeiter, Paralegals oder externe Berater KI-Tools nutzen, ohne die Quellen zu überprüfen. Die Wurzel des Problems liegt in der Architektur der KI: Generative Modelle erzeugen Texte, indem sie die wahrscheinlichste nächste Wortfolge vorhersagen, was zu plausibel klingenden, aber völlig erfundenen Fakten führen kann. Um das Risiko zu senken, setzen etablierte Rechtsdienstleister wie Thomson Reuters (Westlaw) und LexisNexis auf „Walled Gardens“ – KI-Systeme, die nur auf internen, verifizierten Rechtsdatenbanken trainiert sind. LexisNexis hat zudem mit dem KI-Startup Harvey eine Partnerschaft geschlossen, die den Zugriff auf die weltweit größte juristische Datenbank ermöglicht und die Quellenstruktur der KI-Modelle kontrolliert. Harvey arbeitet zudem mit OpenAI und Anthropic zusammen, um die Datenquellen zu begrenzen und Transparenz über die Herkunft der Antworten zu schaffen. Die Lösung ist also nicht die Abschaffung von KI, sondern ihre gezielte, kontrollierte Anwendung. Rechtsanwälte müssen lernen, KI-Output nicht als Endprodukt, sondern als Ausgangspunkt zu behandeln. Gleichzeitig wächst der Markt für KI-Prüf-Tools wie Clearbrief, die nicht nur Fehler aufspüren, sondern auch eine verifizierbare Prüfgeschichte erzeugen. Für Cozen O’Connor ist das ein Schritt in Richtung zukunftssicherer, verantwortungsvoller KI-Nutzung – und ein deutliches Signal: In der Rechtsbranche ist die Antwort auf KI-Halluzinationen nicht weniger KI, sondern kluge, überwachte KI. Die Branche steht vor einer tiefgreifenden Digitalisierung, die nicht nur Effizienz, sondern auch neue Formen der Verantwortlichkeit erfordert. KI-Tools sind hier nicht der Feind, sondern ein Werkzeug – vorausgesetzt, sie werden mit Sorgfalt, Transparenz und Kontrolle eingesetzt.

Verwandte Links