Anthropic stellt strukturierte Ausgaben für API-Modelle vor
Anthropic hat mit der Einführung von Structured Outputs eine bedeutende Verbesserung für Entwickler vorgenommen, die auf konsistente, maschinenlesbare Ausgaben von ihren Modellen angewiesen sind. Die neue Funktion, die aktuell in der öffentlichen Beta für die Modelle Claude Sonnet 4.5 und Opus 4.1 verfügbar ist, sorgt dafür, dass die API-Antworten exakt den von Entwicklern definierten JSON-Schemata oder Pydantic-Modellen entsprechen. Dies löst ein zentrales Problem: Bisher war es schwierig, verlässliche, strukturierte Daten aus LLMs zu extrahieren, da die Ausgaben oft unvorhersehbar, formatbedingt inkonsistent oder mit überflüssigem Text versehen waren. Mit Structured Outputs wird sichergestellt, dass die Ausgabe stets gültiges JSON ist – unabhängig von der Modellkreativität. Wichtig ist jedoch, dass die Inhaltsgenauigkeit weiterhin nicht garantiert ist: Modelle können weiterhin „halluzinieren“, also falsche, aber gut formatierte Antworten liefern. Die Implementierung erfolgt über den neuen Parameter output_format in der API, der entweder ein JSON-Schema oder ein Pydantic-Modell akzeptiert. In der Praxis bedeutet das, dass Entwickler nicht mehr auf aufwändige Regex-Extraktionen oder heuristische Textverarbeitung angewiesen sind. Stattdessen kann der Code direkt die strukturierten Daten in Python-Objekte umwandeln. In einem ersten Beispiel wird der Inhalt von Wikipedia-Artikeln zu Wissenschaftlern automatisch gescraped und in ein festes Schema mit Feldern wie Name, Geburtsdatum, Nobelpreis und Todestag transformiert. Das Ergebnis ist eine saubere, maschinenlesbare Liste mit konsistenten Daten – ideal für Datenbanken, Dashboards oder Datenpipeline-Integrationen. Ein zweites, besonders praktisches Beispiel zeigt die Anwendung im Bereich Software-Sicherheit: Ein Python-Skript mit einer kritischen SQL-Injektion wird an das Modell gesendet, das nun nicht mehr nur einen „Chat“-Text zurückgibt, sondern eine vollständig strukturierte JSON-Antwort mit einer Liste von Bugs, deren Schweregrad, einer beschreibenden Erklärung und dem korrigierten Code. Die Struktur wird über ein Pydantic-Modell definiert, wodurch die API-Integrität und Typensicherheit gewährleistet sind. Dies macht die Ausgabe direkt nutzbar in CI/CD-Pipelines, z. B. in GitHub Actions, wo ein is_safe_to_run: False automatisch einen Pull Request blockieren kann. Industrieinsider loben die Neuerung als Meilenstein für die Integration von LLMs in Produktionsumgebungen. Anstatt als „Chatbot“ zu agieren, werden die Modelle nun zu deterministischen Softwarekomponenten, die in automatisierte Workflows eingebunden werden können. Die Kombination aus Pydantic-Modellen und strukturierten Schemata sorgt für Typsicherheit, vermeidet Formatfehler und reduziert die Anzahl an „Fehlern in der Ausgabe“ erheblich. Für Unternehmen, die auf LLMs für Datenextraktion, Code-Refactoring oder automatisierte Prüfungen setzen, ist dies ein entscheidender Schritt hin zu verlässlicherer KI-Integration. Anthropic positioniert sich damit klar als Anbieter, der nicht nur Leistung, sondern auch Produktionsreife im Fokus hat. Die Funktion ist zwar noch in Beta, aber bereits jetzt ein zentrales Werkzeug für Entwickler, die LLMs nicht nur für Prototypen, sondern für echte Anwendungen nutzen wollen.
