HyperAIHyperAI

Command Palette

Search for a command to run...

Anthropic nutzt Chat-Daten für KI-Training – Nutzer müssen bis 28.9. entscheiden

Anthropic wird ab September 2025 seine KI-Modelle künftig auch mit Chat-Transkripten und Code-Sitzungen von Nutzern trainieren, sofern diese nicht ausdrücklich widersprechen. Die Änderung betrifft alle Nutzer von Claude in den konsumierenden Abonnement-Tarifen – inklusive der kostenlosen Version, Pro und Max – sowie die Nutzung von Claude Code. Die Daten werden bis zu fünf Jahre gespeichert, sofern nicht abgelehnt. Die Entscheidung muss bis zum 28. September 2025 getroffen werden. Neue Nutzer wählen ihre Präferenz bereits beim Anmelden, bestehende Nutzer erhalten eine Pop-up-Meldung mit der Option „Akzeptieren“ oder „Nicht jetzt“. Letzteres verzögert die Entscheidung, zwingt aber am Ende zur Wahl. Die Änderung gilt nur für neue oder fortgesetzte Chats und Code-Sitzungen – bereits abgeschlossene Gespräche bleiben außen vor. Sobald ein altes Gespräch erneut aufgenommen wird, wird es jedoch in die Modellweiterbildung einbezogen. Die Regelung gilt nicht für kommerzielle Nutzungstypen wie Claude Gov, Claude für Arbeit, Bildung oder API-Integrationen über Drittanbieter wie Amazon Bedrock oder Google Cloud Vertex AI. Ein kritischer Punkt: Die Benutzeroberfläche ist so gestaltet, dass Nutzer möglicherweise automatisch „Akzeptieren“ klicken, ohne die Datenschutzoptionen zu prüfen. Die Meldung weist große Schrift auf: „Aktualisierung der Verbraucherbedingungen und Datenschutzrichtlinien“, darunter steht „Ein Update zu unseren Verbraucherbedingungen und Datenschutzrichtlinien tritt am 28. September 2025 in Kraft. Sie können die aktualisierten Bedingungen bereits heute akzeptieren.“ Der große schwarze „Akzeptieren“-Button ist leicht zu übersehen, während die Option zur Datenweiterbildung mit einem automatisch aktivierten Schalter („Ein“) im kleineren Text versteckt ist. Um abzulehnen, muss der Schalter manuell auf „Aus“ gestellt werden. Auch nach der Zustimmung kann man über die Einstellungen → Datenschutz → Datenschutzeinstellungen die Option „Hilfe bei der Verbesserung von Claude“ deaktivieren – allerdings nur für zukünftige Daten. Die bereits verarbeiteten Daten können nicht zurückgenommen werden. Anthropic betont, dass sensible Informationen durch automatisierte Filter und Verfälschungstechniken geschützt werden und die Nutzerdaten nicht an Dritte verkauft werden. Trotzdem wirft die Änderung Bedenken hinsichtlich der Transparenz und des informierten Einverständnisses auf, besonders da viele Nutzer die feine Unterscheidung zwischen „Akzeptieren“ und der Datenschutzeinstellung übersehen könnten. Industriebeobachter sehen in der Maßnahme einen Trend hin zu datenintensiveren KI-Entwicklung, der jedoch mit erhöhten Risiken für Datenschutz und Nutzerkontrolle einhergeht. Anthropic positioniert sich als KI-Unternehmen mit Fokus auf Sicherheit und ethische Entwicklung, doch die neue Praxis unterstreicht die Herausforderung, zwischen Nutzen und Privatsphäre auszubalancieren.

Verwandte Links

Anthropic nutzt Chat-Daten für KI-Training – Nutzer müssen bis 28.9. entscheiden | Aktuelle Beiträge | HyperAI