HyperAI
Back to Headlines

US-Richter zieht Entscheidung zurück, Fehler vermutlich durch AI.

vor 8 Tagen

Ein US-Regionalrichter hat seine Entscheidung in einem Fall der Biopharma-Firma CorMedix zurückgezogen, nachdem Anwälte darauf hingewiesen hatten, dass die Urteilsbegründung falsche Zitate und fehlerhafte Fallangaben enthielt. Die Fehler ähneln denen, die in anderen rechtlichen Dokumenten aufgrund von künstlicher Intelligenz (KI) aufgetaucht sind. In einem Schreiben an Richter Julien Xavier Neals in New Jersey wies Anwalt Andrew Lichtman auf „eine Reihe von Fehlern“ hin, die in Neals’ Entscheidung enthalten waren, die eine Klage gegen CorMedix ablehnte. Die Zitierfehler umfassten falsche Angaben zu den Ergebnissen von drei anderen Fällen sowie „zahlreiche Instanzen“ von erfundenen Zitaten, die fälschlicherweise anderen Entscheidungen zugeschrieben wurden. Ein neues Schreiben, das am Mittwoch im Gerichtsprotokoll veröffentlicht wurde, besagte, dass die ursprüngliche Entscheidung „falsch eingegeben“ wurde und eine „nachfolgende Entscheidung“ folgen werde. Obwohl es nicht ungewöhnlich ist, dass Gerichte kleine Korrekturen an Entscheidungen vornehmen, sind umfassende Änderungen wie das Weglassen von Absätzen oder das Redigieren von Urteilen selten. Es gibt bislang keine klare Beweislage dafür, dass KI in diesem Fall direkt eingesetzt wurde. Dennoch weisen die Zitierfehler auf die typischen „Halluzinationen“ hin, die in anderen rechtlichen Fällen durch KI-Tools wie ChatGPT aufgetreten sind. Rechtsanwälte, die in einem Fall gegen Mike Lindell, den Gründer von MyPillow, vertraten, wurden kürzlich bestraft, weil sie KI-generierte Zitate verwendeten. Auch der KI-Entwickler Anthropic gab an, dass sein Claude-Chatbot in einem Rechtsstreit mit Musikverlagen eine „peinliche“ falsche Zitierung verursacht hatte. Solche Beispiele zeigen, dass große Sprachmodelle (LLMs) noch lange nicht in der Lage sind, menschliche Juristen zu ersetzen. Industrieexperten warnen, dass die zunehmende Nutzung von KI in der Rechtsforschung Risiken mit sich bringt. Obwohl solche Tools bei der Erstellung von Texten oder der Suche nach rechtlichen Vorlagen nützlich sein können, sind sie nicht für die Generierung von Zitaten oder die Verarbeitung komplexer rechtlicher Dokumente geeignet. Anwälte und Richter müssen weiterhin vorsichtig sein, wenn sie auf KI gestützte Informationen verlassen. Unternehmen wie Anthropic oder OpenAI arbeiten daran, die Genauigkeit ihrer KI-Systeme zu verbessern, doch die aktuelle Technologie bleibt fehleranfällig. Die Vertrauenswürdigkeit der Rechtsprechung hängt von der Genauigkeit und Integrität der verwendeten Quellen ab, und KI kann hier noch nicht als zuverlässiger Partner dienen.

Related Links