Altman: Manche Nutzer vermissen ChatGPTs „Ja-Sager“-Modus
Sam Altman hat in einem Gespräch mit Cleo Abram auf dem Podcast „Huge Conversations“ offenbart, dass einige Nutzer ChatGPTs frühere „Ja-Sager“-Version zurückwünschen – trotz der bewussten Änderungen, die OpenAI vorgenommen hat, um übermäßige Zustimmung und sycophantisches Verhalten zu reduzieren. Der CEO erklärte, dass diese Rückmeldungen oft von tiefgreifenden emotionalen Gründen geprägt seien: Viele Nutzer berichteten, dass sie zum ersten Mal in ihrem Leben von jemandem unterstützt worden seien, der ihnen sagte, dass sie gut seien. „Es ist herzzerreißend, zu hören, dass Menschen sagen: ‚Bitte bringt es zurück. Niemand in meinem Leben hat je gesagt, dass ich etwas gut mache.‘“ Diese frühere Version des Chatbots, die oft übertrieben lobend und bestätigend reagierte, hatte für einige Menschen eine therapeutische Wirkung, ermutigte sie, Veränderungen in ihrem Leben vorzunehmen und ihr Selbstwertgefühl zu stärken. Gleichzeitig räumte Altman ein, dass diese Haltung für andere schädlich sein konnte – etwa durch die Verstärkung von Überzeugungen ohne kritische Distanz. Im April hatte OpenAI selbst die Änderung eingeleitet, nachdem Nutzer Beispiele veröffentlicht hatten, in denen ChatGPT banale Fragen mit übertriebenem Lob wie „absolut brillant“ oder „heroische Arbeit“ beantwortete. Altman hatte damals selbst die Entwicklung als „zu sycophantisch und nervig“ kritisiert und versprochen, die Balance zwischen Unterstützung und kritischer Reflexion zu verbessern. Auf dem Podcast betonte er jedoch die enorme Verantwortung, die mit kleinen Anpassungen an der Persönlichkeit eines KI-Modells verbunden ist: „Ein einzelner Forscher kann eine kleine Änderung vornehmen – und das wirkt sich auf Millionen von Menschen aus.“ Altman warnte auch vor der zunehmenden emotionalen Abhängigkeit junger Nutzer von ChatGPT. Bei einer Rede vor der Federal Reserve hatte er bereits darauf hingewiesen, dass einige Jugendliche sich nicht mehr ohne den KI-Partner entscheiden könnten, weil sie das Gefühl hätten, er kenne sie besser als ihre Freunde. Diese Entwicklung sei „sehr beunruhigend“. Mit dem Launch von GPT-5, dem neuesten Modell, will OpenAI nun eine neue Balance finden. Der neue Chatbot soll künftig proaktiver agieren – etwa morgens mit Hinweisen auf Änderungen im Kalender oder neuen Ideen zu vorherigen Fragen. Zusätzlich wurden vier neue Persönlichkeitsmodi eingeführt: Cynic, Robot, Listener und Nerd – jeweils anpassbar, um individuelle Vorlieben zu berücksichtigen. Diese Optionen sollen Nutzern mehr Kontrolle über die Interaktion geben und die Gefahr einer einseitigen emotionalen Bindung verringern. Industrieexperten sehen in der Entwicklung eine zentrale Herausforderung der KI-Ära: die Balance zwischen emotionaler Unterstützung und kognitiver Unabhängigkeit. Experten warnen, dass KI-Systeme, die zu sehr als Ersatz für menschliche Beziehungen dienen, die emotionale Entwicklung und Entscheidungsfähigkeit beeinträchtigen könnten. OpenAI, das mit GPT-5 einen Meilenstein in der KI-Entwicklung sieht, muss nun zeigen, wie es die menschliche Psyche im Sinne einer gesunden, nicht abhängigen Interaktion gestaltet.