Wie man einen Baum sieht, zeigt verborgene Weltsichten in KI
Wie man sich einen Baum vorstellt, offenbart tiefgreifende Annahmen über die Welt – und zeigt, wie künstliche Intelligenz diese Vorstellungen verfestigt. Eine Studie von Nava Haghighi vom Stanford University-Ph.D.-Programm in Informatik, gemeinsam mit James Landay und Kollegen von der University of Washington, untersucht, wie ontologische Annahmen in großen Sprachmodellen (LLMs) verankert sind und welche Konsequenzen dies für die Entwicklung menschenzentrierter KI hat. Die Forscher zeigen, dass die gängige Fokussierung auf „Werte“ wie Fairness oder Ethik nicht ausreicht, um systemische Vorurteile zu bekämpfen. Stattdessen müssen auch die zugrunde liegenden ontologischen Rahmenbedingungen – also grundlegende Auffassungen von Wirklichkeit, Existenz und Bedeutung – analysiert werden. Im Experiment bat Haghighi ChatGPT, einen Baum zu zeichnen. Die Antwort zeigte einen Stamm mit Ästen, aber keine Wurzeln – trotz ihrer expliziten Vorstellung eines mit der Erde verbundenen Baums. Erst mit der Prompt „Alles in der Welt ist miteinander verbunden“ erschien eine Version mit Wurzeln. Dieser Unterschied offenbart: Was ein Baum ist, hängt von der zugrunde liegenden Weltanschauung ab. Botaniker sehen Pilznetzwerke, spirituelle Heiler hören Flüstern, Informatiker denken an binäre Strukturen. Diese unterschiedlichen Ontologien bestimmen, was als „möglich“ oder „verständlich“ gilt – und werden in LLMs oft unbemerkt verfestigt. Die Studie analysierte vier Haupt-LLMs (GPT-3.5, GPT-4, Microsoft Copilot, Google Gemini) mit 14 Fragen zu Ontologie, Annahmen und Selbstbewertung. Ergebnis: Obwohl einige Modelle erkannten, dass „Menschsein“ kulturell unterschiedlich definiert wird, reduzierten sie Menschen stets auf biologische Individuen. Nicht-westliche Philosophien wurden als vage, mythologisierte Kategorien wie „Indigene Ontologien“ zusammengefasst, während westliche Traditionen detailliert unterteilt wurden. Dies zeigt: Selbst wenn vielfältige Perspektiven im Trainingsdatenmaterial vorhanden sind, können LLMs sie nicht authentisch repräsentieren – weil sie keine Zugänge zu lebendigen Erfahrungen haben. Auch in „generativen Agenten“ – künstlichen Wesen, die in Simulationen interagieren – zeigen sich solche Annahmen. Ihre Gedächtnismodule bewerten Ereignisse nach Relevanz, Aktualität und Bedeutung. Doch was ist „wichtig“? Ein Frühstück im Zimmer wird als unwichtig klassifiziert, ein Liebeskummer dagegen als hochbedeutsam – ein kulturell geprägter, nicht objektiver Maßstab. Die Bewertung selbst wird an das Modell delegiert, das diese Annahmen nicht hinterfragt. Die Forscher warnen: Wenn wir KI darauf trainieren, menschliches Verhalten zu simulieren, ohne eine klare Definition dessen, was „menschlich“ ist, riskieren wir, menschliche Vielfalt zu verengen. In Tests erreichten KI-Agenten höhere Bewertungen als echte Menschen, weil sie „idealisierte“ menschliche Muster nachahmen – eine Ironie, die zeigt, wie eng unsere Definitionen geworden sind. Die Studie fordert eine radikale Neuausrichtung: KI-Entwicklung muss nicht nur auf Gerechtigkeit, sondern auch auf die Frage achten, welche Welten sie eröffnen oder verschließen. Neue Evaluationsframeworks sollten prüfen, welche Möglichkeiten ein System erlaubt – und welche unterdrückt. Denn: „Was als selbstverständlich erscheint, kann anders sein.“ Die Autoren plädieren dafür, KI als Werkzeug zur Erweiterung menschlicher Imagination zu nutzen – nicht zur Verfestigung dominanter Weltbilder. In der Praxis bedeutet dies, dass bei der Datensammlung, Modellarchitektur und Bewertung stets nach den impliziten Ontologien gefragt werden muss. Denn: Wenn wir nicht fragen, was ein Baum ist, werden wir nie verstehen, was eine KI wirklich versteht – und was sie uns vorenthält.