HyperAIHyperAI

Command Palette

Search for a command to run...

Ausfall bei mehreren Claude-Modellen aufgrund von Sonnet- und Opus-Fehlern

Am 14. Dezember 2025 trat ein systematischer Ausfall bei mehreren Modellen von Anthropic auf, der vor allem die Versionen Sonnet 4.0, Sonnet 4.5 und Opus 4.5 betraf. Die Störung führte zu einer signifikanten Erhöhung von Fehlern bei der Verarbeitung von Anfragen und beeinträchtigte die Funktionalität über mehrere wichtige Plattformen, darunter claude.ai, platform.claude.com (früher console.anthropic.com), die Claude-API (api.anthropic.com) sowie Claude Code. Die Auswirkungen waren weltweit spürbar und betrafen sowohl Endnutzer als auch Entwickler, die auf die APIs zugreifen, um KI-gestützte Anwendungen zu integrieren. Die Ursache der Störung wurde zunächst nicht vollständig identifiziert, doch die technischen Teams von Anthropic vermuteten einen Zusammenhang mit einer kürzlich bereitgestellten Aktualisierung oder einem Update der betroffenen Modelle. Die Probleme manifestierten sich in Form von inkonsistenten Antworten, erhöhter Latenz, fehlerhaften Tokenisierungen und teilweise vollständigen Ausfällen bei der Modellantwort. Besonders betroffen waren Anwendungen, die auf hohe Genauigkeit und Stabilität angewiesen sind, wie z. B. Codegenerierung, Dokumentenanalyse und komplexe Sprachverarbeitung. Am 14. Dezember 2025 um 21:31 UTC gab Anthropic eine erste Stellungnahme ab, in der sie bestätigte, dass die Störung untersucht wird. Kurz darauf, um 21:46 UTC, wurde der Vorfall spezifiziert: Die betroffenen Modelle wurden als Ursache identifiziert. Die Teams arbeiteten intensiv an der Diagnose und der Wiederherstellung der Systeme, wobei sie sowohl interne Logs als auch Benutzerfeedback analysierten, um die Fehlerquelle zu lokalisieren. Die Wiederherstellung erfolgte schrittweise. Nach mehreren Stunden wurde die Stabilität der betroffenen Modelle wiederhergestellt, und die Dienste wurden nach und nach wieder vollständig verfügbar gemacht. Anthropic veröffentlichte später eine detaillierte Post-Mortem-Analyse, in der sie auf eine unerwartete Reaktion im Inferenz-Stack bei bestimmten Eingabemustern hinwies, die zu einem Überlauf in der Token-Verarbeitung führte. Dieser Fehler wurde durch eine fehlerhafte Konfiguration in der Modell-Infrastruktur verursacht, die bei der Bereitstellung von Sonnet 4.5 und Opus 4.5 nicht ausreichend getestet wurde. Die Incident-Management-Teams von Anthropic betonten die Notwendigkeit, die Test- und Deploy-Workflows für neue Modelle zu überarbeiten, insbesondere hinsichtlich der Last- und Grenzwertprüfung. Die Störung diente als Warnung für die Komplexität der Skalierung von KI-Systemen und die Notwendigkeit strengerer Qualitätskontrollen bei der Einführung neuer Versionen. In der Branche wurde die Störung als typisch für die Herausforderungen der KI-Infrastruktur angesehen. Branchenexperten wiesen darauf hin, dass solche Vorfälle trotz fortschreitender Technologie häufiger auftreten, wenn die Skalierung von Modellen die Stabilität der zugrundeliegenden Systeme überfordert. Die Reaktion von Anthropic, die Transparenz und die schnelle Kommunikation, wurde von Analysten positiv bewertet. Die Firma gilt als führend in der Entwicklung verantwortungsvoller KI, und die offene Handhabung des Vorfalls stärkte das Vertrauen in ihre technische Reife. Anthropic, gegründet 2021, ist ein US-amerikanisches KI-Unternehmen, das sich auf die Entwicklung sicherer, vertrauenswürdiger und menschenzentrierter KI-Modelle spezialisiert hat. Die Störung unterstrich die kritische Bedeutung von Robustheit in KI-Plattformen, insbesondere in kritischen Anwendungen.

Verwandte Links