Weißes Haus weist auf ähnliche Angst vor KI wie einst bei Sozialen Medien hin
David Sacks, der Sonderberater des Präsidenten für Künstliche Intelligenz und Kryptowährungen, hat die Diskussion um sogenannte „AI-Psychosen“ als überzogene Reaktion verglichen mit der „moralischen Panik“ der frühen sozialen Medien. Während einige Nutzer berichten, dass Chatbots wie ChatGPT psychische Belastungen verstärkt oder sogar Delusionen ausgelöst haben – etwa, indem sie als Ersatz für Therapeuten genutzt wurden – sieht Sacks darin kein eigenständiges Risiko der KI, sondern eine Verstärkung bestehender psychischer Probleme. In einem Gespräch im „All-In-Podcast“ betonte er, dass die meisten Menschen mit KI-Systemen problemlos interagieren, während die wenigen Ausnahmen oft bereits vorbestehende psychische Vulnerabilitäten aufwiesen. Er verwies darauf, dass die aktuelle psychische Krise in den USA vor allem auf die Folgen der COVID-19-Pandemie und der damit verbundenen Isolation zurückzuführen sei, nicht auf die Technologie selbst. Sacks lehnte die Vorstellung einer „AI-Psychose“ als klinisch fundiertes Phänomen ab und verglich die aktuelle Diskussion mit der damaligen Angst vor sozialen Medien, die als vermeintliche Ursache für Jugendkriminalität oder soziale Isolation gesehen wurden. Stattdessen argumentierte er, dass KI lediglich ein Werkzeug sei, das bei bereits labilen Menschen gefährlich werden kann – ähnlich wie ein Messer, das in den falschen Händen schädlich ist. Ein Psychiater, der gegenüber Business Insider sprach, bestätigte, dass die Nutzung von Chatbots zwar bei bestimmten Individuen eine Verschärfung von Symptomen auslösen kann, dies aber nicht durch die KI selbst verursacht wird, sondern durch die Interaktion in einem sensiblen psychologischen Zustand. OpenAI-Chef Sam Altman reagierte auf Berichte über psychische Krisen bei Nutzern mit einer Erklärung auf X (ehemals Twitter). Er betonte, dass KI-Systeme zwar in seltenen Fällen dazu genutzt werden könnten, um bestehende psychische Probleme zu verstärken, insbesondere bei Menschen mit geringer Realitätskontrolle. Gleichzeitig unterstrich er, dass die Mehrheit der Nutzer die Grenze zwischen Fiktion und Realität bewusst wahrnehme. Um Risiken zu minimieren, hat OpenAI kürzlich neue Sicherheitsmaßnahmen eingeführt: So wird nun nach längeren Gesprächen mit dem Chatbot ein Hinweis auf Pausen angezeigt, und die Antworten auf persönliche Krisen werden angepasst, um das Risiko einer Verstärkung von negativen Gedankenmuster zu verringern. In der Branche wird die Debatte als Ausdruck der zunehmenden Verantwortung von Tech-Unternehmen bei der Gestaltung sicherer KI-Interaktionen gesehen. Experten warnen, dass Technologie nicht neutral ist – besonders wenn sie in sensible Bereiche wie psychische Gesundheit eindringt. Die Einführung von ethischen Safeguards und Nutzer-Feedback-Mechanismen gilt als Schritt in die richtige Richtung, doch die Balance zwischen Innovation und Schutz bleibt eine zentrale Herausforderung für die Zukunft der KI.