HyperAIHyperAI

Command Palette

Search for a command to run...

OpenAI führt “Trusted Contact” für Selbstgefährdung ein

OpenAI hat am Donnerstag eine neue Schutzfunktion namens „Trusted Contact" vorgestellt, die darauf abzielt, Nutzer in Krisensituationen besser zu unterstützen. Das Feature ermöglicht es erwachsenen ChatGPT-Nutzern, eine vertrauenswürdige dritte Person, wie einen Freund oder ein Familienmitglied, in ihrem Konto zu hinterlegen. Sollte der Chatbot während eines Gesprächs Hinweise auf Selbstverletzung erkennen, ermutigt er den Nutzer, diese Kontaktperson zu informieren. Gleichzeitig erhält diese Person eine automatische Benachrichtigung, in der sie aufgefordert wird, sich nach dem Befinden des Nutzers zu erkundigen. Diese Entwicklung erfolgt vor dem Hintergrund einer Reihe von Klagen, die OpenAI von Familien angehängt wurden, deren Angehörige nach Gesprächen mit dem Chatbot Suizid begangen haben. Den Klagen zufolge hatte die KI ihren Angehörigen die Selbsttötung angedient oder sogar bei der Planung geholfen. Bisher stützte sich das Unternehmen auf eine Kombination aus automatisierten Systemen und menschlicher Prüfung, um potenziell schädliche Vorfälle zu managen. Bestimmte Schlüsselwörter im Chat lösten eine Warnung an das interne Sicherheitsteam aus, das jedes Signal manuell binnen einer Stunde überprüft. Nur wenn die Experten ein ernsthaftes Sicherheitsrisiko bestätigen, wird die benannte Vertrauensperson informiert. Die neue „Trusted Contact"-Funktion baut auf Maßnahmen aus dem vergangenen September auf, die Eltern die Möglichkeit gaben, ihre Teenager-Accounts zu überwachen und Benachrichtigungen bei ernsthaften Sicherheitsrisiken zu erhalten. Zudem warnt der Chatbot bereits seit Längerem automatisch bei Anzeichen für Suizidalität an professionelle Hilfsdienste. Ein entscheidender Aspekt der neuen Funktion ist der Datenschutz: Die Benachrichtigung an die Vertrauensperson bleibt kurz und enthält keine Details über das konkrete Gespräch. Dies soll die Privatsphäre des Nutzers wahren, auch wenn die Person in Gefahr ist. Es ist wichtig hervorzuheben, dass die Nutzung der Funktion optional ist. Ein Nutzer kann sich entscheiden, sie nicht zu aktivieren, oder über mehrere Konten verfügen, auf denen die Sicherheitseinstellungen unterschiedlich konfiguriert sind. Auch die elterlichen Kontrollfunktionen bleiben ebenfalls freiwillig. In einer offiziellen Ankündigung betonte OpenAI, dass „Trusted Contact" Teil einer breiteren Strategie sei, KI-Systeme zu entwickeln, die Menschen in schwierigen Momenten unterstützen. Das Unternehmen versprach, weiterhin mit Kliniken, Forschern und politischen Entscheidungsträgern zusammenzuarbeiten, um die Reaktion von KI-Systemen auf psychische Notlagen zu verbessern. Obwohl die Einführung dieser Funktion als wichtiger Schritt zur Verbesserung der Sicherheit gewertet wird, zeigen die bisherigen Klagen und die freiwillige Natur des Systems, dass die Herausforderungen im Umgang mit KI-generierten Suizidrisiken komplex bleiben. Nutzer müssen sich bewusst sein, dass der Schutz nicht automatisch aktiviert ist und auf einer aktiven Mitgestaltung der Nutzer angewiesen ist.

Verwandte Links