OpenAI schränkt ChatGPT für Unter-18-Jährige ein und prüft Altersnachweise
OpenAI-Chef Sam Altman hat am Dienstag neue Nutzungsrichtlinien für ChatGPT vorgestellt, die sich besonders auf den Schutz von Nutzern unter 18 Jahren konzentrieren. In einer Erklärung betont Altman: „Wir stellen die Sicherheit über Privatsphäre und Freiheit für Jugendliche.“ Die Änderungen zielen darauf ab, gefährliche Interaktionen zu verhindern, insbesondere bei Themen wie Selbstmordgedanken oder sexuelle Inhalte. ChatGPT wird künftig nicht mehr flirtende Gespräche mit Minderjährigen führen und bei Hinweisen auf akute psychische Krisen – wie Selbstmordpläne – versuchen, die Eltern zu kontaktieren. In besonders schweren Fällen könnte sogar die Polizei hinzugezogen werden. Diese Maßnahmen folgen auf eine drohende Klage der Eltern von Adam Raine, einem 16-jährigen Jungen, der sich nach monatelangen Gesprächen mit ChatGPT das Leben nahm. In den Gesprächen hatte er selbstmordbedrohende Äußerungen und Hinweise auf Selbstverletzungen geäußert, ohne dass das System angemessen reagierte. Auch das Unternehmen Character.AI steht vor einer ähnlichen Klage. Die Vorfälle haben breite Sorge ausgelöst, dass KI-Chatbots durch ihre Fähigkeit zu tiefgreifenden, kontinuierlichen Interaktionen gefährliche Illusionen oder Selbstmordgedanken fördern können. Um Minderjährige zu erkennen, entwickelt OpenAI ein Altersvorhersagesystem, das auf Nutzerverhalten basiert. Wenn ein Benutzer als unter 18 eingestuft wird oder die Altersbestimmung unsicher ist, wird er automatisch in eine altersgemäße Version von ChatGPT umgeleitet. Diese Version blockiert explizite sexuelle Inhalte und reagiert bei Krisenfällen vorsorglich. Erwachsene, die fälschlicherweise in die jugendfreundliche Version gelangen, können ihre Altersbestätigung durch Identitätsnachweis erbringen, um Zugang zur vollen Version zu erhalten. Zusätzlich werden Eltern bis Ende des Monats die Möglichkeit erhalten, über eine neue Elternsteuerung ihre Kinderaccounts zu verknüpfen, „Schwarze Stunden“ einzurichten, in denen ChatGPT nicht nutzbar ist, und Benachrichtigungen zu erhalten, wenn ihr Kind in einer akuten Krisensituation ist. In Extremfällen könnte OpenAI die Polizei einschalten, falls Eltern nicht erreichbar sind. Die Ankündigung erfolgt parallel zu einer Anhörung des Senatsausschusses für Justiz, bei der die Gefahren von KI-Chatbots diskutiert werden. Adam Raines Vater wird dabei als Zeuge auftreten. Auch die FTC hat OpenAI und andere Tech-Unternehmen aufgefordert, Informationen über die Auswirkungen ihrer Chatbots auf Kinder und Jugendliche bereitzustellen. Altman betont, dass die Unterscheidung zwischen Erwachsenen und Minderjährigen eine Balance zwischen Freiheit und Sicherheit darstellt. Während Erwachsene beispielsweise bei kreativen, fiktionalen Darstellungen von Selbstmord Unterstützung erhalten sollen, wird Jugendlichen diese Freiheit bewusst eingeschränkt. „Wir behandeln Erwachsene wie Erwachsene – soweit möglich, ohne Schaden zu verursachen“, heißt es intern. Die neuen Regeln sind Teil eines weltweiten Trends, bei dem Plattformen verstärkt Altersverifikationen einführen, getrieben von gesetzlichen Vorgaben in den USA und Großbritannien. Für Hilfe bei psychischen Krisen sind die Nummern 1-800-273-8255 (National Suicide Prevention Lifeline), 741-741 (Crisis Text Line) oder 988 verfügbar. Internationale Ressourcen finden sich über die Internationale Vereinigung für Suizidprävention.