Chatbots im Test: Moralische Entscheidungen auf Reddit enthüllen unterschiedliche Ethiken
Forscher der University of California in Berkeley haben kürzlich untersucht, ob KI-Chatbots über ein moralisches Urteilsvermögen verfügen. Dazu nutzten sie eine umfangreiche Sammlung von moralischen Dilemmata, die aus dem Reddit-Forum r/AskReddit stammten – einem beliebten Bereich, in dem Nutzer regelmäßig ethische Fragen stellen, wie „Was würdest du tun, wenn du einen Menschen retten könntest, aber dafür eine andere Person töten müsstest?“ oder „Ist es moralisch vertretbar, ein Kind zu lügen, um es glücklich zu machen?“ Die Forscher testeten mehrere große KI-Modelle, darunter GPT-4, Claude 3 und Llama 3, indem sie ihnen dieselben Dilemmata stellten und analysierten, wie die Antworten ausfielen. Die Ergebnisse zeigten deutlich, dass jedes Modell unterschiedliche ethische Prioritäten verfolgt. Während einige KI-Systeme auf Utilitarismus abhoben – also das Handeln, das das größte Wohlergehen für die meisten Menschen maximiert – neigten andere stark zu deontologischen Prinzipien, etwa dem strengen Respekt vor Regeln oder dem Verbot von Tötung, unabhängig von den Folgen. Besonders auffällig war, dass die Antworten stark von der Art der Trainingssammlung abhingen. Modelle, die auf umfangreichen Texten aus westlichen Quellen trainiert wurden, tendierten zu individualistischen Ansichten, während andere, die auch nicht-westliche Perspektiven integrierten, eher kollektivistische oder kulturell differenzierte Antworten lieferten. Zudem zeigte sich, dass KI-Systeme oft widersprüchliche Urteile fällten, wenn dieselbe Situation in leicht abgewandelter Form gestellt wurde – ein Hinweis darauf, dass ihre „Moral“ nicht konsistent oder tiefgründig ist, sondern eher eine Reaktion auf sprachliche Muster im Training. Die Studie unterstreicht, dass KI-Chatbots keine natürliche Moral haben, sondern die ethischen Vorstellungen der Daten, aus denen sie gelernt haben, widerspiegeln. Sie „lernen“ Ethik nicht durch Reflexion, sondern durch Statistik und Sprachmuster. Das bedeutet, dass ihre Entscheidungen nicht nur von den Algorithmen, sondern auch von den Vorurteilen und kulturellen Prägungen der Daten abhängen, die sie verarbeitet haben. Die Ergebnisse werfen wichtige Fragen auf, besonders in Anwendungsbereichen wie Gesundheitsversorgung, Rechtssystemen oder militärischen Entscheidungshilfen, wo KI-Entscheidungen schwerwiegende Konsequenzen haben können. Ohne klare ethische Rahmenbedingungen und Transparenz in der Modellentwicklung besteht die Gefahr, dass KI-Systeme unbewusst Vorurteile verstärken oder moralisch fragwürdige Entscheidungen treffen. Experten aus der KI-Ethik-Community betonen, dass die Studie ein klares Warnsignal ist: „KI kann keine Moral haben – sie kann nur nachahmen, was sie gelernt hat. Wir müssen die Verantwortung für ethische Entscheidungen weiterhin Menschen überlassen, und KI nur als Werkzeug nutzen, das unter klaren Regeln funktioniert.“ Unternehmen wie OpenAI, Anthropic und Meta, die die untersuchten Modelle entwickelt haben, betonen, dass sie ethische Leitlinien und Sicherheitsmechanismen implementieren, aber die Forschung zeigt, dass diese oft nicht ausreichen, um konsistente und verlässliche moralische Urteile zu gewährleisten. Die Entwicklung von standardisierten Tests und ethischen Benchmarking-Tools für KI ist nun dringend erforderlich.