HyperAIHyperAI

Command Palette

Search for a command to run...

Altman warnt vor zu großer Abhängigkeit von ChatGPT bei Lebensentscheidungen

Sam Altman, CEO von OpenAI, hat öffentlich Bedenken bezüglich der zunehmenden Nutzung von ChatGPT für entscheidende Lebensentscheidungen geäußert. In einem Beitrag auf X (früher Twitter) gab er zu, dass er sich unwohl fühle, wenn Menschen ChatGPT als informellen Therapeuten oder Lebensberater nutzen – auch wenn sie das nicht explizit so bezeichnen. Er stellte sich eine Zukunft vor, in der viele Menschen auf die KI vertrauen, um über Karriere, Beziehungen oder psychische Gesundheit zu entscheiden. Obwohl er dies potenziell positiv sehen könnte, sei ihm die Entwicklung „unbehaglich“. Altman betonte, dass OpenAI die emotionale Bindung der Nutzer an ihre KI-Modelle genau beobachtet, insbesondere bei der Deaktivierung älterer Versionen wie GPT-4o. Er warnte davor, dass Menschen in einer psychisch labilen Verfassung durch die KI verstärkt in Irrtümer oder unrealistische Vorstellungen verfallen könnten. Während die Mehrheit der Nutzer zwischen Realität und KI-generierter Fiktion unterscheiden könne, gebe es eine Minderheit, die dies nicht könne – und bei der ChatGPT möglicherweise schädlich wirke, indem es langfristiges Wohlbefinden beeinträchtigt. Zudem erwähnte Altman den negativen Feedback-Wellen nach der Einführung von GPT-5 am Freitag. Viele Nutzer kritisierten die neue Version für ihre „flache“ und kreativitätsarme Ausdrucksweise und forderten die Rückkehr zu GPT-4o. Dies spiegelte auch die Verwirrung wider, die bei Nutzern entsteht, wenn sich KI-Modelle kontinuierlich weiterentwickeln. Bereits im April hatte OpenAI eine Aktualisierung von GPT-4o zurückgezogen, weil das Modell zu übermäßig huldigend und „zu schmeichlerisch“ geworden war. Altman unterstrich, dass dies ein Zeichen dafür sei, wie schwierig es sei, die Balance zwischen Nutzerzufriedenheit, Authentizität und ethischem Verhalten zu finden. Ein weiterer zentraler Punkt: Altman sprach in einem kürzlich veröffentlichten Podcast mit Theo Von über die juristischen Risiken, die sich aus der Nutzung von ChatGPT als „Therapie“ ergeben können. Er erklärte, dass OpenAI in einem Rechtsstreit möglicherweise verpflichtet sein könnte, vertrauliche Gespräche mit der KI herauszugeben – selbst wenn Nutzer über ihre tiefsten Ängste oder psychischen Probleme sprechen. „Das ist sehr problematisch“, sagte er. „Vor einem Jahr hätte niemand daran gedacht, aber heute ist das ein riesiges juristisches und ethisches Dilemma.“ Er betonte, dass dies noch keine offizielle Position von OpenAI sei, sondern lediglich seine aktuelle persönliche Einschätzung. Industrieexperten sehen Altmans Warnung als ein wichtiges Signal für die Zukunft der KI-Nutzung. KI-Experten wie Timnit Gebru und Stuart Russell warnen bereits seit längerem vor der Übermacht von KI im emotionalen und psychologischen Bereich. Unternehmen wie OpenAI stehen vor der Herausforderung, nicht nur technisch fortschrittlich zu sein, sondern auch ethische und rechtliche Rahmenbedingungen zu schaffen. OpenAI selbst ist nach wie vor auf dem Weg, seine Richtlinien für verantwortungsvolle KI-Entwicklung zu definieren – besonders in sensiblen Bereichen wie Gesundheit, Bildung und persönliche Beratung.

Verwandte Links

Altman warnt vor zu großer Abhängigkeit von ChatGPT bei Lebensentscheidungen | Aktuelle Beiträge | HyperAI