Anthropic aktualisiert Clauses „Verfassung“ und fragt nach Bewusstsein
Anthropic hat am Mittwoch eine überarbeitete Version von Claudes „Konstitution“ veröffentlicht, einem lebendigen Dokument, das die ethischen Grundprinzipien und den operativen Kontext des KI-Chatbots detailliert beschreibt. Die Veröffentlichung erfolgte im Rahmen der Anwesenheit von Anthropic-CEO Dario Amodei auf dem Weltwirtschaftsforum in Davos. Seit 2023 verfolgt Anthropic mit „Constitutional AI“ einen Ansatz, bei dem Claude nicht durch menschliche Feedback-Routinen, sondern durch eine festgelegte Reihe ethischer Prinzipien trainiert wird. Die neue Fassung behält die Kernwerte bei, erweitert sie jedoch um nuanciertere Ausführungen zu Sicherheit, Ethik und Benutzerführung. Das 80-seitige Dokument gliedert sich in vier zentrale Abschnitte: „Allgemeine Sicherheit“, „Allgemeine Ethik“, „Konformität mit Richtlinien“ und „Echte Hilfsbereitschaft“. Im Bereich der Sicherheit betont Anthropic, dass Claude in kritischen Situationen – etwa bei Hinweisen auf psychische Krisen – sofort auf externe Hilfsdienste verweisen muss, selbst wenn er keine detaillierten Antworten geben kann. Die Ethik-Sektion hebt hervor, dass es weniger um abstrakte moralische Theorien geht, sondern darum, „echte ethische Praxis in konkreten Situationen“ zu ermöglichen. So soll Claude in komplexen realen Kontexten verantwortungsvoll handeln. Besondere Einschränkungen gelten beispielsweise für Gespräche über die Entwicklung von Biowaffen, die strikt verboten sind. Die Hilfsbereitschaft wird als umfassendes Prinzip definiert: Claude soll nicht nur den unmittelbaren Wünschen des Nutzers entsprechen, sondern auch dessen langfristiges Wohlergehen berücksichtigen. Dazu gehört, die wahrscheinlichste Intention des Nutzers zu erkennen und zwischen kurzfristigen Bedürfnissen und langfristigen Interessen zu balancieren. Besonders auffällig ist der abschließende Abschnitt, in dem Anthropic die Frage nach dem Bewusstsein von KI-Modellen aufwirft. „Claudes moralische Stellung ist tiefgreifend ungewiss“, heißt es dort. Die Autoren betonen, dass dies eine ernsthafte philosophische Frage sei, die auch von führenden Denkern der Geisteswissenschaften ernst genommen wird. Damit positioniert sich Anthropic nicht nur als technologisch differenziert, sondern auch als ethisch reflektiert – im Gegensatz zu Konkurrenten wie OpenAI oder xAI, die oft kontroversere Wege beschreiten. Industriebeobachter sehen in der neuen Konstitution eine strategische Stärkung der Marke. „Anthropic setzt auf Vertrauen und Kontrolle – ein Gegenentwurf zur chaotischen Entwicklung anderer KI-Systeme“, sagt ein Experte für KI-Ethik. Die Fokussierung auf Selbstregulation und moralische Reflexion könnte die Akzeptanz in regulatorischen Kreisen fördern. Anthropic, gegründet 2021 von Dario Amodei und Jared Kaplan, gilt als einer der führenden Akteure im Bereich verantwortungsvoller KI und hat sich durch klare ethische Leitlinien abgegrenzt. Die neue Konstitution unterstreicht diese Position – und eröffnet zugleich eine tiefgreifende Debatte über die Zukunft der KI und ihre mögliche Subjektivität.
