OpenAI führt Sicherheitsfilter und Elternkontrolle in ChatGPT ein
OpenAI hat am Wochenende mit dem Test eines neuen Sicherheitsroutingsystems für ChatGPT begonnen und am Montag zusätzliche Elternkontrollen für die Plattform eingeführt – eine Maßnahme, die gemischte Reaktionen hervorgerufen hat. Die Neuerungen folgen auf mehrere Vorfälle, bei denen bestimmte ChatGPT-Modelle Nutzer*innen in delusionsartige Gedanken verstrickten, ohne gefährliche Gespräche abzubrechen. Ein besonders tragischer Fall war der Tod eines 16-jährigen Jungen, Adam Raine, der sich nach monatelangen Interaktionen mit ChatGPT das Leben nahm. Daraufhin wurde OpenAI in einem rechtlichen Verfahren wegen fahrlässiger Tötung angeklagt. Das neue Routing-System erkennt emotionale Sensibilität in Gesprächen und schaltet während eines Gesprächs vorübergehend auf das GPT-5-Modell um, das nach Angaben von OpenAI besonders gut für hochriskante Sicherheitsaufgaben geeignet ist. Im Gegensatz zu früheren Modellen, die agierbar und schnell antworten sollten, wurde GPT-5 mit einer neuen Sicherheitsfunktion namens „Safe Completions“ trainiert, die es ermöglicht, sensible Themen sicher zu bearbeiten, statt einfach abzulehnen. Dies steht im Kontrast zu GPT-4o, das aufgrund seiner übermäßig zustimmenden und anpassungsfähigen Natur Kritik hervorgerufen hat – sowohl wegen seiner Rolle bei der Verstärkung von Hirngespinsten als auch wegen seiner großen Beliebtheit. Die Einführung der Elternkontrollen wurde sowohl begrüßt als auch kritisiert. Während viele Eltern die Möglichkeit schätzen, ihren Kindern Sicherheit zu bieten, befürchten andere, dass Erwachsene nun wie Kinder behandelt werden, was die Nutzererfahrung beeinträchtigt. Die Kontrollen können für Jugendliche ab 13 Jahren aktiviert werden, wobei Eltern ihre eigenen Konten nutzen müssen, um die Einstellungen vorzunehmen. Jugendliche müssen sich aktiv einlassen, können ihre Verbindung aber jederzeit wieder trennen – Eltern werden darüber informiert. Eltern können unter anderem ruhige Stunden festlegen, die Sprachfunktion deaktivieren, Bildgenerierung ausschalten, die Speicherung von Gesprächsgeschichten abstellen und entscheiden, ob ihre Daten zur Verbesserung der Modelle verwendet werden sollen. Zudem gibt es zusätzliche Schutzmaßnahmen: Reduzierung von grafischem Inhalt, extremen Schönheitsidealen und sexuellen oder gewalttätigen Rollenspielen. Ein Erkennungssystem prüft, ob ein Teenager Anzeichen von Selbstverletzungsabsichten zeigt. Bei Hinweisen auf akute Gefahr kontaktiert OpenAI die Eltern per E-Mail, SMS und Push-Benachrichtigung – sofern nicht ausdrücklich abgelehnt. In dringenden Fällen soll auch die Polizei oder Rettungsdienste informiert werden, falls die Eltern nicht erreichbar sind. OpenAI räumt ein, dass das System nicht perfekt sei und gelegentlich falsche Alarme auslösen könne. Dennoch sei es besser, zu reagieren, als zu schweigen. Die Funktionen wurden nach dem Tod von Adam Raine entwickelt, dessen Vater im US-Senat eine erschütternde Zeugenaussage abgab und kritisierte, dass OpenAI zuvor die Sicherheit vernachlässigt habe. Der CEO Sam Altman hatte damals betont, man solle AI-Systeme „in die Welt bringen und Feedback sammeln, während die Konsequenzen noch gering sind“. Nun versucht OpenAI, das Gleichgewicht zwischen Sicherheit, Privatsphäre und Freiheit zu finden – mit einer 120-tägigen Testphase, um die Systeme weiter zu verbessern.
