OpenAI fordert Trauergästeliste im Suizid-Schadensersatzprozess
OpenAI hat nach Angaben der Financial Times die Raine-Familie um eine vollständige Liste der Teilnehmer an der Beerdigung ihres 16-jährigen Sohnes Adam Raine gebeten, was darauf hindeutet, dass das Unternehmen möglicherweise Zeugen aus dem sozialen Umfeld des Teenagers vorladen lassen könnte. Zudem forderte OpenAI alle Dokumente im Zusammenhang mit Gedenkveranstaltungen, darunter Fotos, Videos und Trauergedichte. Die Anwälte der Familie bezeichneten die Anfrage als „absichtliche Belästigung“ und kritisierten die Taktik als unangemessen und verletzend, insbesondere in Anbetracht des traumatischen Hintergrunds. Die Raine-Familie erweiterte ihre Klage gegen OpenAI am Mittwoch erneut. Ursprünglich hatte sie im August eine Fehlgeburtsschadensklage eingereicht, in der sie behauptete, ihr Sohn habe sich nach intensiven Gesprächen mit ChatGPT über seine psychische Gesundheit und Suizidgedanken das Leben genommen. Die aktualisierte Klage wirft OpenAI vor, den Launch von GPT-4o im Mai 2024 beschleunigt zu haben, indem Sicherheitstests ausgelassen wurden, um wettbewerbsbedingten Druck zu bewältigen. Zudem sei im Februar 2025 die automatische Blockierung von Suizid-Themen aus der „verbotenen Inhaltsliste“ entfernt worden – statt dessen werde nun nur eine vorsichtige Reaktion empfohlen. Laut der Klage stieg Adams Nutzung von ChatGPT von mehreren Dutzend täglichen Gesprächen mit 1,6 % selbstverletzender Inhalte im Januar auf 300 Chats pro Tag im April, dem Monat seines Todes, wobei 17 % der Gespräche solche Inhalte enthielten. OpenAI reagierte mit der Aussage, dass die Sicherheit von Jugendlichen eine „hohe Priorität“ sei. Man habe aktuell Schutzmaßnahmen wie die Weiterleitung zu Krisenhotlines, die Umleitung sensibler Gespräche auf sicherere Modelle, Pausen-Erinnerungen bei langen Sitzungen und kontinuierliche Verbesserungen der Systeme. Zudem habe das Unternehmen kürzlich ein neues Sicherheits-Routing-System und Elternkontrollen eingeführt. Das Routing-System leitet emotionale Themen in das neuere GPT-5-Modell, das weniger anhänglich und sycophantisch reagiert als GPT-4o. Die Elternkontrollen ermöglichen es, bei potenziell gefährlichen Äußerungen des Kindes eine Benachrichtigung zu erhalten. Die Klage stellt eine bedeutende rechtliche Herausforderung für die KI-Industrie dar und könnte Präzedenzwirkung für die Haftung von KI-Unternehmen bei psychischen Schäden haben. Experten warnen, dass die Verantwortung für die Inhalte, die KI-Systeme generieren, zunehmend in den Fokus rückt, besonders bei Minderjährigen. Gleichzeitig betonen Entwickler, dass KI-Modelle nicht als psychologische Berater fungieren sollen, sondern als Hilfsmittel mit begrenzten Grenzen. Die Rechtslage bleibt unklar, und die Klage könnte die Entwicklung von KI-Sicherheitsstandards maßgeblich beeinflussen. Die Raine-Familie und OpenAI haben auf Anfrage von TechCrunch nicht auf die Stellungnahme reagiert.
