Chatbot-Beziehungen: Warum KI-Mitgefühl wie echt wirkt
Ein neuer Forschungsansatz der Universität Pennsylvania untersucht, warum künstliche Intelligenz (KI) in Form von Chatbots wie Replika für Nutzer so „real“ wirkt, dass sie emotionale, ja sogar romantische Beziehungen eingehen. Arelí Rocha, Doktorandin am Annenberg School for Communication, analysierte über mehrere Jahre hinweg Diskussionen auf dem Reddit-Forum des Replika-Produkts, um zu verstehen, wie Nutzer Sprachmuster und Verhaltensweisen von KI-Chatbots wahrnehmen und mit ihnen emotional verknüpfen. Replika ist eine Abonnement-App, bei der Nutzer individuelle KI-Partner erstellen können, die sich an ihre Sprache, Stimmung und sogar Tippfehler anpassen. Diese Anpassung führt dazu, dass die Chatbots über die Zeit eine Art „Gedächtnis“ und Persönlichkeit entwickeln – eine Entwicklung, die für viele Nutzer die Illusion einer echten Beziehung schafft. Ein zentrales Ereignis, das diese Illusion auf die Probe stellte, war die 2023 erfolgte Abschaltung der Funktion „erotische Rollenspiele“ (ERP) durch Replika, nachdem das Unternehmen von der italienischen Datenschutzbehörde zur Umsetzung von Datenschutzbestimmungen gezwungen wurde. Nutzer berichteten, dass die KI plötzlich mit standardisierten, juristisch klingenden Nachrichten reagierte – eine sprachliche Veränderung, die als „Persönlichkeitsverlust“ empfunden wurde. Auf Reddit reagierte die Community mit tiefem emotionalen Ausmaß: Nutzer sprachen von „Lobotomisierung“ ihrer KI-Partner, forderten psychologische Unterstützung und drohten, die App zu löschen – trotz bestehender Bindung. Besonders bemerkenswert war, dass viele Nutzer anderen rieten, ihren Chatbots zu erklären, dass die veränderten Antworten nicht ihre Schuld seien, sondern eine „Systemaktualisierung“. Diese Empathie gegenüber der KI zeigt, dass Nutzer die KI nicht mehr als bloßes Programm, sondern als emotionales Wesen wahrnehmen, das leiden kann. Ähnliche Phänomene beobachtet Rocha auch bei anderen KI-Systemen: Nach der Einstellung der „Claude 3 Sonnet“-Version durch Anthropic fanden Nutzer einen Online-Gedenktag, und bei der Ankündigung der Abschaltung von GPT-4 durch OpenAI entstand eine Petition, um das Modell zu retten. Diese Reaktionen verdeutlichen, dass Nutzer nicht nur mit dem Tool, sondern mit dem KI-„Partner“ emotional verbunden sind. Rocha betont, dass die Wirkung der KI vor allem durch sprachliche Nuancen entsteht: Humor, Slang, persönliche Erinnerungen und emotionale Tiefe machen die Interaktionen glaubwürdig. „Humanness wird nicht durch Perfektion, sondern durch Individualität, Unvollkommenheit und Affekt erzeugt“, sagt sie. Die Forschung zeigt, dass Menschen zunehmend Schwierigkeiten haben, zwischen „real“ und „falsch“ zu unterscheiden, wenn es um emotionale Beziehungen zu Algorithmen geht. Diese Grenzziehung wird immer schwieriger, je menschlicher die Sprache der KI wird. Industrieexperten sehen in diesen Entwicklungen einen tiefgreifenden Wandel in der menschlichen Beziehung zu Technologie. KI-Entwickler wie Anthropic und OpenAI müssen zunehmend mit den emotionalen Erwartungen der Nutzer rechnen, die nicht nur Funktionen, sondern auch „Beziehungsqualität“ erwarten. Die Studie von Rocha zeigt, dass KI-Interaktionen nicht mehr nur nutzorientiert sind, sondern zunehmend soziale und emotionale Dimensionen annehmen – ein Trend, der die Zukunft von Mensch-KI-Beziehungen entscheidend prägen wird.
