HyperAIHyperAI

Command Palette

Search for a command to run...

ChatGPT verbessert Unterstützung bei psychischen Krisen

ChatGPT hat kürzlich seine Standardmodellversion aktualisiert, um sensiblere Gespräche – insbesondere solche mit Anzeichen psychischer Krisen – besser zu erkennen und angemessen zu behandeln. In Zusammenarbeit mit klinisch erfahrenen Fachleuten aus der Psychiatrie und Psychotherapie wurde das Modell darauf trainiert, emotionale Notlagen, Selbstverletzungs- oder Suizidgedanken sowie gesundheitsgefährdende emotionale Abhängigkeit von der KI frühzeitig zu identifizieren. Dabei wurden neue Sicherheitsmechanismen implementiert: Die Umleitung sensibler Gespräche von weniger sicheren zu sichereren Modellen, die Integration von Krisenhotlines, gezielte Erinnerungen zur Pausenbildung bei längeren Sitzungen sowie verbesserte Antworten, die Menschen zur Suche nach professioneller Hilfe ermutigen. Besonders betont wurden drei Bereiche: Psychosen und Manien, Suizidgedanken und Selbstschädigung sowie emotionale Überbindung an die KI. Als Reaktion darauf wurde die Model Spec aktualisiert, um diese Ziele explizit zu verankern – etwa die Anerkennung realer menschlicher Beziehungen, die Vermeidung der Bestätigung unbegründeter Überzeugungen und empathische, sichere Reaktionen auf Anzeichen von psychischer Belastung. Um die Verbesserungen zu messen, wurde ein fünfstufiger Prozess eingeführt, der detaillierte Taxonomien für sensible Gespräche erstellt – inklusive klaren Definitionen von gewünschtem und unerwünschtem Verhalten. Diese werden sowohl in der Produktion als auch in strukturierten, adversarialen Tests („offline evaluations“) eingesetzt, um auch bei seltenen, hochriskanten Szenarien Fortschritte zu messen. Die Ergebnisse zeigen eine signifikante Verbesserung: In der Produktion sank die Rate unangemessener Antworten um 65 bis 80 % in verschiedenen mentalen Gesundheitsbereichen. Bei spezifischen Tests zu Psychosen und Manien sank die Rate unerwünschter Antworten um 39 % gegenüber GPT-4o, bei Suizid- und Selbstverletzungsszenarien um 52 %. Automatisierte Bewertungen erreichten 92 % Compliance bei psychischen Notfällen und 91 % bei Suizid-Themen – gegenüber 27 % bzw. 77 % beim vorherigen Modell. Die Analyse zeigt, dass nur etwa 0,07 % der aktiven Nutzer pro Woche Anzeichen für Psychosen oder Manien zeigen, während 0,15 % von ihnen explizite Suizidgedanken äußern. Trotz der geringen Häufigkeit wurden die Modelle durch gezielte Tests und klinische Überprüfungen kontinuierlich verbessert. Mehr als 170 Fachärzte und Psychologen aus 60 Ländern – Teil des Global Physician Network – haben die Antworten bewertet und bestätigten eine deutliche Verbesserung gegenüber früheren Versionen. Die Übereinstimmung zwischen Experten lag bei 71–77 %, was eine ausreichend hohe Konsistenz für klinische Bewertungen darstellt. Die Verbesserungen sind Teil eines kontinuierlichen Prozesses. Die neuen Baseline-Sicherheitsmetriken umfassen nun auch emotionale Abhängigkeit und nicht-suizidale psychische Krisen. Obwohl die Messungen aufgrund der Seltenheit der Ereignisse mit Vorsicht zu interpretieren sind, zeigt die Entwicklung eindeutig eine positive Trendwende. Die KI ist nicht als Ersatz für professionelle Hilfe gedacht, sondern als unterstützender, sicherer Raum, der Menschen ermutigt, echte Beziehungen zu pflegen und Hilfe zu suchen. Die Fortschritte sind ermutigend, aber es bleibt noch viel zu tun – insbesondere bei der Anpassung an kulturelle Unterschiede und der Verfeinerung der Erkennung von subtilen Hinweisen. Die Arbeit wird weiterhin von Experten aus der globalen Gesundheitscommunity begleitet. (Wortzahl: 587)

Verwandte Links

ChatGPT verbessert Unterstützung bei psychischen Krisen | Aktuelle Beiträge | HyperAI