Alters- und Geschlechterverzerrung in KI-Modellen beeinflusst Bewerbungen
Forscher haben untersucht, wie Alter und Geschlecht in Online-Medien und großen Sprachmodellen wie ChatGPT dargestellt werden. Dazu analysierten sie Hunderttausende Bilder aus Quellen wie IMDb und Google Image Search sowie die Texte, die zur Ausbildung solcher KI-Modelle verwendet wurden. Das Ergebnis: Ein systematischer Altersunterschied zwischen Männern und Frauen ist deutlich erkennbar. Frauen werden online und in Trainingsdaten signifikant jünger dargestellt als Männer – ein Stereotyp, das sich in der digitalen Welt tief verwurzelt hat. Diese Verzerrung hat weitreichende Folgen: Sie könnte nicht nur die Wahrnehmung von Kompetenz und Erfahrung beeinflussen, sondern auch zur Verstärkung der Lohnlücke beitragen. Denn wenn Frauen in der KI-Ära als jünger und weniger erfahren wahrgenommen werden, könnten sie auch bei der Bewertung von Lebensläufen durch Systeme wie ChatGPT benachteiligt werden. So könnte die KI, die auf verzerrenden Daten trainiert wurde, automatisch jüngere Bewerberinnen bevorzugen – ohne dass dies bewusst geschieht. Die Studie zeigt, dass diese Alters- und Geschlechterverzerrungen nicht nur kulturell, sondern auch technologisch verankert sind und in kritischen Prozessen wie der Stellenbesetzung oder der Karriereberatung zu Diskriminierung führen können. Die Forscher warnen, dass ohne gezielte Korrektur solcher Muster KI-Systeme bestehende gesellschaftliche Ungleichheiten weiter verstärken könnten. In der Praxis bedeutet dies, dass KI-gestützte Bewerbungs- und Recruiting-Tools, die auf historischen Daten basieren, möglicherweise unbewusst stereotype Vorstellungen von Geschlecht und Alter reproduzieren. Wenn beispielsweise die Trainingsdaten überwiegend Bilder von jungen Frauen und älteren Männern enthalten, lernt das Modell, dass „erfolgreich“ und „kompetent“ mit bestimmten Alters- und Geschlechterprofilen assoziiert wird. Dies führt zu einer systematischen Benachteiligung älterer Frauen und jüngerer Männer in automatisierten Entscheidungsprozessen. Die Studie unterstreicht die Notwendigkeit, die Datenquellen für KI-Entwicklung kritisch zu überprüfen und bewusst diversifizierte, repräsentative Datensätze einzusetzen. Zudem sollten Entwickler Algorithmen mit „Fairness-Tests“ ausstatten, die auf Verzerrungen prüfen. Experten aus der KI- und Sozialforschung betonen, dass die Ergebnisse eine dringende Aufforderung an Technologieunternehmen und Forschungseinrichtungen darstellen, die Entwicklung von KI transparenter und verantwortungsvoller zu gestalten. „Die Art und Weise, wie KI uns über Geschlecht und Alter informiert, beeinflusst nicht nur, wie wir uns selbst sehen, sondern auch, wer in der Gesellschaft Anerkennung und Chancen erhält“, sagt eine der beteiligten Forscherinnen. Unternehmen wie OpenAI oder Google sollten daher nicht nur technische Leistung, sondern auch ethische Standards in ihre Modelle integrieren. Die Studie zeigt: Eine gerechtere KI ist nur möglich, wenn auch die Daten, auf denen sie basiert, gerecht sind.
