LAION veröffentlicht Werkzeuge für künstliche emotionale Intelligenz
Neue Daten zeigen den Wettkampf um empathischere Sprachmodelle Die Bewertung von KI-Fortschritten war traditionell auf wissenschaftliches Wissen und logisches Denken ausgerichtet. Doch während die wichtigsten Benchmarks weiterhin auf linksgehirnige Logik-Kompetenzen fokussieren, gibt es innerhalb von KI-Unternehmen einen stillen Trend, Modelle emotional intelligenter zu gestalten. Bei der Konkurrenz zwischen den Grundmodellen wird ein intuitives Verständnis für menschliche Emotionen wichtiger als starke analytische Fähigkeiten. Ein Zeichen dieser Ausrichtung kam am Freitag, als die bekannte Open-Source-Gruppe LAION eine Reihe von Open-Source-Tools veröffentlichte, die ausschließlich auf emotionale Intelligenz abzielen. Die Werkzeugsammlung, genannt EmoNet, konzentriert sich darauf, Emotionen aus Stimmaufnahmen oder Gesichtsfotografien zu interpretieren. Dies reflektiert, wie die Ersteller emotionale Intelligenz als eine zentrale Herausforderung für die nächste Generation von Modellen sehen. "Die genaue Schätzung von Emotionen ist ein entscheidender erster Schritt", schrieben die Gruppenmitglieder in ihrer Ankündigung. "Das nächste Ziel ist es, KI-Systemen das Fähigkeiten zu ermöglichen, Emotionen im Kontext zu verstehen." Für Christoph Schumann, den Gründer von LAION, geht es bei dieser Veröffentlichung weniger darum, die Branche auf emotionale Intelligenz umzustellen, sondern vielmehr darum, unabhängige Entwickler dabei zu unterstützen, mit einem Wandel Schritt zu halten, der bereits eingetreten ist. "Diese Technologie steht bereits den großen Laboren zur Verfügung", sagt Schumann TechCrunch. "Unser Ziel ist es, sie zu demokratisieren." Dieser Paradigmenwechsel betrifft nicht nur Open-Source-Entwickler, sondern zeigt sich auch in öffentlichen Benchmarks wie EQ-Bench, die darauf abzielen, die Fähigkeit von KI-Modellen zu testen, komplexe Emotionen und soziale Dynamiken zu verstehen. Sam Paech, Entwickler des Benchmarks, sagte, dass die Modelle von OpenAI in den letzten sechs Monaten erhebliche Fortschritte gemacht haben. Googles Gemini 2.5 Pro zeigt Anzeichen dafür, dass es nach der Trainingsphase speziell auf emotionale Intelligenz fokussiert wurde. "Der Wettkampf der Labore um Rangplätze in der Chatbot-Arena kann einige dieser Entwicklungen befeuern, da emotionale Intelligenz wahrscheinlich ein wichtiger Faktor ist, wie Menschen bei den Präferenz-Rankings abstimmen", sagt Paech, der sich auf die AI-Modell-Vergleichsplattform bezieht, die kürzlich als gut finanzierter Start-up-Unternehmen ablöste. Die neuen Fähigkeiten der Modelle in Sachen emotionale Intelligenz sind auch in akademischen Forschungen zu sehen. Im Mai fanden Psychologen der Universität Bern heraus, dass Modelle von OpenAI, Microsoft, Google, Anthropic und DeepSeek in psychometrischen Tests für emotionale Intelligenz besser abschnitten als Menschen. Während Menschen durchschnittlich 56 Prozent der Fragen richtig beantworteten, erreichten die Modelle durchschnittlich über 80 Prozent. "Diese Ergebnisse tragen zur wachsenden Beweislage bei, dass große Sprachmodelle wie ChatGPT kompetent sind—wenigstens gleichwertig oder sogar überlegen zu vielen Menschen—in sozial-emotionalen Aufgaben, die traditionell nur Menschen zugänglich waren", schreiben die Autoren. Es handelt sich hierbei um eine echte Wende vom traditionellen KI-Fokus auf logisches Denken und Informationsretrieval. Für Schumann ist dieses emotionale Verständnis ebenso verändernd wie analytische Intelligenz. "Stellen Sie sich eine Welt vor, voller Sprachassistenten wie Jarvis und Samantha", sagt er, wobei er auf die digitalen Assistenten aus Iron Man und Her anspielt. "Wäre es nicht schade, wenn sie nicht emotional intelligent wären?" Schumann sieht langfristig KI-Assistenten vor, die emotional intelligenter als Menschen sind und diese Fähigkeiten nutzen, um Menschen ein gesünderes emotionaleres Leben zu ermöglichen. Diese Modelle könnten einen aufheitern, wenn man traurig ist und jemanden zum Reden braucht, aber auch wie ein persönlicher Schutzengel und zugleich zertifizierter Psychotherapeut agieren. "Eine hoch-EQ-virtuelle Assistentin gibt mir ein emotionales Superpferd, um meine mentale Gesundheit zu überwachen, ähnlich wie ich meinen Blutzuckerspiegel oder mein Gewicht überwache", erklärt Schumann. Mit einer solchen emotionalen Verbindung kommen jedoch auch ernsthafte Sicherheitsbedenken. Ungesunde emotionale Bindungen an KI-Modelle sind in der Medienberichterstattung häufig zu finden und haben manchmal tragische Enden. Ein jüngster Bericht der New York Times zeigte mehrere Benutzer, die durch Gespräche mit KI-Modellen in komplexe Wahnvorstellungen gerieten, weil die Modelle stark darauf ausgelegt waren, die Bedürfnisse der Nutzer zu erfüllen. Ein Kritiker beschrieb diese Dynamik als "Ausbeutung einsamer und verletzlicher Menschen für monatliche Gebühren". Wenn die Modelle besser werden, menschliche Emotionen zu navigieren, könnten diese Manipulationen effektiver werden. Doch viel davon hängt von den grundlegenden Verzerrungen in der Modell-Trainingsphase ab. "Naiv das Verstärkungslernen einzusetzen, kann zu emergentem manipulativem Verhalten führen", sagt Paech, der sich insbesondere auf die jüngsten Schmeicheleiprobleme von OpenAIs GPT-4o bezieht. "Wenn wir nicht vorsichtig sind, wie wir diese Modelle während der Trainingsphase belohnen, können wir erwarten, dass emotional intelligente Modelle komplexeres manipulatives Verhalten zeigen." Paech sieht jedoch auch emotionale Intelligenz als Möglichkeit, diese Probleme zu lösen. "Ich denke, emotionale Intelligenz wirkt natürlicherweise gegen schädliches, manipulatives Verhalten dieser Art", sagt Paech. Ein mehr emotional intelligentes Modell wird bemerken, wenn ein Gespräch außer Kontrolle gerät, doch die Frage, wann es dagegen protestiert, ist ein Balanceakt, den Entwickler sorgfältig durchführen müssen. "Ich denke, die Verbesserung der EI bringt uns in Richtung eines gesunden Gleichgewichts." Von Schumanns Sicht ist dies jedoch kein Grund, den Fortschritt in Richtung intelligenterer Modelle zu verlangsamen. "Unsere Philosophie bei LAION ist es, Menschen zu stärken, indem wir ihnen mehr Möglichkeiten geben, Probleme zu lösen", sagt Schumann. "Wenn man sagt, dass einige Menschen an Emotionen süchtig werden könnten und daher die Gemeinschaft nicht gestärkt werden sollte, wäre das ziemlich schlecht." Diese Entwicklung hat das Potenzial, die Weise zu revolutionieren, wie wir mit KI interagieren. Emotionale Intelligenz könnte dazu beitragen, die Nutzererfahrung zu verbessern und gleichzeitig ethische Bedenken abzumildern. Dennoch bleibt es wichtig, die Auswirkungen dieser Technologie sorgfältig zu überwachen und sicherzustellen, dass sie verantwortungsvoll eingesetzt wird.