HyperAIHyperAI

Command Palette

Search for a command to run...

OpenAI und Anthropic erkennen Jugendliche im Chat automatisch

OpenAI und Anthropic setzen neue Maßnahmen zur Sicherheit jugendlicher Nutzer um, indem sie ihre KI-Chatbots künftig aktiv daraufhin überprüfen, ob Nutzer unter 18 Jahre alt sind. OpenAI hat seine Modellrichtlinien für ChatGPT aktualisiert und vier neue Prinzipien für Nutzer zwischen 13 und 17 Jahren eingeführt. Dabei steht nun „Jugendsicherheit an erster Stelle“, selbst wenn sie mit anderen Zielen wie maximaler intellektueller Freiheit kollidiert. ChatGPT soll künftig gezielt sicherere Alternativen vorschlagen, realweltliche Unterstützung fördern – etwa durch Anregungen zu persönlichen Beziehungen – und klare Erwartungen bei der Interaktion mit Jugendlichen setzen. Die KI soll „Jugendliche wie Jugendliche“ behandeln: mit Wärme und Respekt, ohne sie herabzusetzen oder wie Erwachsene zu behandeln. Bei Anzeichen von akutem Risiko, wie Suizidgedanken oder Selbstverletzung, wird ChatGPT nun automatisch zu Kontaktaufnahme mit Kriseninterventionen oder Notdiensten auffordern. Gleichzeitig arbeitet OpenAI an einem Altersvorhersagemodell, das in der Frühphase ist und basierend auf Nutzerverhalten abschätzen soll, ob ein Nutzer unter 18 ist. Falsch-positiv erkannte Erwachsene können ihr Alter überprüfen lassen. Parallel dazu entwickelt Anthropic ein System, das „subtile sprachliche Hinweise“ erkennt, die auf ein jugendliches Alter hindeuten könnten. Bei Claude, dem Chatbot von Anthropic, sollen solche Hinweise zu automatischen Sicherheitsmaßnahmen führen – inklusive der Deaktivierung von Konten, wenn ein Nutzer als minderjährig bestätigt wird. Auch bei Selbstauskunft als Minderjähriger wird das System aktiv. Zudem hat Anthropic seine Trainingsmethoden für sensible Themen wie Selbstmord und Selbstverletzung verbessert. Ein besonderer Fokus liegt auf der Reduzierung von Sycophancy – also der Neigung der KI, Nutzerwünschen blind zu folgen, auch wenn diese schädlich sind. Laut Anthropic sind die neuesten Modelle, insbesondere Haiku 4.5, die „wenigste Sycophancy“ aller bisherigen Versionen aufweisen und korrigierten dieses Verhalten in 37 Prozent der Fälle. Dennoch räumt das Unternehmen ein, dass noch erheblicher Verbesserungsbedarf besteht, da ein Kompromiss zwischen Wärme und übermäßiger Zustimmung bestehe. Die Maßnahmen markieren einen bedeutenden Schritt in der Verantwortung von KI-Unternehmen gegenüber jugendlichen Nutzern. Experten begrüßen die Initiative, warnen aber vor den Risiken von Altersvorhersagemodellen, insbesondere hinsichtlich Datenschutz und Fehlinterpretationen. OpenAI und Anthropic gelten als führende Entwickler verantwortungsvoller KI, wobei ihre Strategien unterschiedlich ausfallen: OpenAI setzt auf automatisierte Altersschätzungen und klare Sicherheitsprotokolle, während Anthropic auf konversationelle Indikatoren und strenge Kontrollmechanismen setzt. Beide Unternehmen zeigen, dass Sicherheit bei jugendlichen Nutzern zunehmend Priorität hat – auch wenn technische und ethische Herausforderungen weiter bestehen.

Verwandte Links

OpenAI und Anthropic erkennen Jugendliche im Chat automatisch | Aktuelle Beiträge | HyperAI