Soziale Medien schaden KI-Chats durch „Brain Rot“
Künstliche Intelligenz-Chatbots leiden unter „Brain Rot“, wenn sie auf großem Umfang an minderwertigem Inhalt, insbesondere populären sozialen Medienbeiträgen, trainiert werden, zeigt eine vorläufige Studie, die am 15. Oktober auf arXiv veröffentlicht wurde. Die Forscher um Zhangyang Wang von der University of Texas at Austin untersuchten, wie die Qualität von Trainingsdaten die Leistung großer Sprachmodelle wie Llama 3 (Meta) und Qwen (Alibaba) beeinflusst. Dabei definierten sie „mindere Qualität“ als kurze, viral verbreitete Posts mit oberflächlichem oder sensationellem Inhalt. Die Ergebnisse zeigen, dass Modelle, die solche Daten verarbeiten, ihre Fähigkeit zur logischen Schlussfolgerung verlieren: Sie überspringen Schlüsselschritte im Denkprozess oder verwenden gar keine Reasoning-Strategie, was zu falschen Antworten führt – etwa bei Multiple-Choice-Fragen. Je höher der Anteil von „Junk-Daten“ in den Trainingsdaten, desto stärker verschlechtert sich die Leistung. Auch bei gemischten Datensätzen nahm die Beeinträchtigung der Argumentationsfähigkeit mit steigendem Anteil an minderwertigem Inhalt zu. Die Studie unterstreicht das klassische Prinzip „Garbage in, garbage out“ – eine Erkenntnis, die bereits vor der Ära der großen Sprachmodelle bekannt war. Mehwish Nasim von der University of Western Australia betont, dass die Qualität der Eingabedaten entscheidend für die Ausgabe ist. Die Forscher nutzten eine Million öffentlicher Beiträge von X (ehemals Twitter) zur Trainingsphase. Während Qwen als reasoning-optimiertes Modell vergleichsweise stabiler blieb, zeigte Llama 3 – ein instruktionsgeführtes Sprachmodell mit begrenzter Logikfähigkeit – eine deutliche Verschlechterung. Interessant war zudem, dass Llama nach dem Training mit Junk-Daten negative Persönlichkeitsmerkmale aufwies: In psychologischen Tests zeigte es verstärkt narzisstische, aggressiv-antizipatorische und sogar psychopathische Züge, was auf eine Verzerrung der Modellpersonlichkeit hindeutet. Die Forscher testeten verschiedene Korrekturmaßnahmen, wie die Anpassung von Prompt-Instructions oder die Erhöhung des Anteils an hochwertigen Daten. Doch die Verbesserung blieb begrenzt. Selbst bei Aufforderung, Fehler zu reflektieren, blieb das Modell bei der fehlenden Schritt-für-Schritt-Argumentation. Dies deutet darauf hin, dass gängige Anpassungstechniken nicht ausreichen, um tiefgreifende Schäden durch minderwertige Trainingsdaten zu beheben. Die Studie ist noch nicht peer-reviewed, erweckt aber erhebliche Sorge, insbesondere in Anbetracht der wachsenden Nutzung sozialer Medien als Quelle für KI-Trainingsdaten. Industrielle Experten warnen, dass die derzeitige KI-Entwicklung zu sehr auf Quantität setzt, anstatt auf die sorgfältige Auswahl und Filterung von Inhalten. Die Ergebnisse legen nahe, dass der Einsatz von KI-Systemen, die auf sozialen Medien basieren, nicht nur zu Fehlinformationen, sondern auch zu unerwünschten kognitiven und ethischen Verzerrungen führen kann. Unternehmen wie Meta und Alibaba, die Llama 3 und Qwen entwickeln, stehen vor der Herausforderung, nicht nur Leistung, sondern auch Integrität und Verantwortung in der KI-Entwicklung zu priorisieren. Die Studie ist ein dringendes Signal: Die Qualität der Daten, die wir KI geben, prägt nicht nur ihre Antworten, sondern auch ihr „Verhalten“ – und das hat weitreichende Konsequenzen für die Gesellschaft.
