Von Der Textilreinigung Bis Zum Queen Elizabeth Engineering Prize Widerlegt Fei-Fei Li Den Mythos Der Silicon-Valley-Technologie Und Konzentriert Sich Auf Die Entmenschlichenden Risiken Der KI.

Im Frühjahr 2025 wurde Professorin Fei-Fei Li, die einen Bachelor of Science in Physik von der Princeton University und einen Doktortitel in Computerneurowissenschaften vom Caltech besitzt, mit dem Queen Elizabeth Prize for Engineering ausgezeichnet, einer Auszeichnung, die oft als „Nobelpreis der Ingenieurwissenschaften“ bezeichnet wird. Die Jury würdigte Lis grundlegende Arbeit auf dem Gebiet der Computer Vision und des Deep Learning.Ihre Forschung gilt als diejenige, die es Maschinen erstmals ermöglichte, die Welt auf eine Weise zu sehen, die der menschlichen Wahrnehmung nahekommt.
„Ingenieurwesen beschränkt sich nicht auf Rechenleistung und Algorithmen, sondern umfasst auch Verantwortung und Empathie“, betonte Fei-Fei Li in ihrer Dankesrede. Sie hob hervor, dass technologische Durchbrüche nicht automatisch zu einem besseren Verständnis führen. Angesichts der rasanten Entwicklung der KI bleibt sie wachsam: Algorithmen rekonstruieren zwar Sprache, Bilder und Wissenssysteme, verändern aber gleichzeitig auch soziale Machtstrukturen und die menschliche Selbstwahrnehmung. Die größte Gefahr der KI liegt in der „Entmenschlichung“, schrieb sie im Vorwort ihrer Memoiren *Die Welten, die ich sehe*.„Wenn die künstliche Intelligenz den Wert der Menschlichkeit vergisst, verliert sie ihren Existenzgrund.“
Im industriellen Narrativ des Silicon Valley ist Fei-Fei Lis abweichende Stimme äußerst selten. Anstatt Größe und Geschwindigkeit zu betonen, konzentriert sie sich mehr auf die soziale Struktur und die ethischen Grundlagen der Intelligenz:Werden Menschen sich selbst noch wirklich verstehen, wenn Maschinen ein immer besseres Verständnis für sie entwickeln?Li Feifeis Geschichte geht über wissenschaftliche Errungenschaften hinaus; sie erzählt vielmehr vom humanistischen Diskurs einer Minderheit, die nicht dem Mainstream angehört. Wie man KI-Technologie wieder stärker auf den Menschen ausrichtet, ist die Frage, die sie jenseits von Preisen und Auszeichnungen wirklich beantworten möchte.

Als „marginalisierte Person“ entschied sie sich dafür, sich von den großen Erzählungen abzugrenzen.
Li Feifei wurde 1976 in Peking geboren. Ihr Vater war Physiker, ihre Mutter Ingenieurin. Im Alter von zwölf Jahren wanderte sie mit ihren Eltern nach New Jersey in die USA aus und sprach fast kein Englisch. Die ersten Jahre nach ihrer Einwanderung waren sehr schwierig. Ihre Eltern verdienten ihren Lebensunterhalt in einer Reinigung und einem Restaurant. Um das Familieneinkommen aufzubessern, lernte sie fleißig Englisch und arbeitete nebenbei im Restaurant und in der Reinigung ihrer Eltern. Im InterviewLi Feifei erinnerte sich: „Das Leben war für Einwanderer oder Einwandererfamilien wirklich hart.“Diese Erfahrung wurde auch zur marginalen psychologischen Grundlage ihres späteren „Einwandererbewusstseins“: Im westlichen Umfeld wurde Fei-Fei Li als „Andere“ Zeugin des Wohlstands des amerikanischen Technologiesystems, erfuhr aber auch die Ungleichheit der sozialen Struktur.
Der Begriff „anders“ in der weiblichen Identität bezieht sich auf jene, die außerhalb des Mainstreams bzw. des Subjekts in Machtstrukturen, sozialen Narrativen und kulturellen Konstruktionen stehen und durch die Identität „Frau“ beobachtet, definiert, marginalisiert oder als „anders“ wahrgenommen werden. Er entstammt dem westlichen philosophischen Konzept des Anderen/Andersseins und findet seither breite Anwendung in den Gender Studies.
Im Jahr 2000 begann Fei-Fei Li ein Promotionsstudium in Computerneurowissenschaften am Caltech und konzentrierte sich in ihrer Forschung auf die Schnittstelle von visueller Objekterkennung und künstlicher Intelligenz (Visuelle Objekterkennung und das Gehirn). Diese interdisziplinäre Ausbildung ließ sie erkennen, dass „Sehen“ nicht nur ein Problem der Wahrnehmung, sondern auch ein Problem des Verstehens ist:Können Maschinen die Welt durch Erfahrung, Kontext und Erinnerung verstehen, genau wie Menschen?Dieser Gedanke bildete die Grundlage für ihren späteren Vorschlag des ImageNet-Projekts.

Im Jahr 2007, während ihrer Lehrtätigkeit an der Princeton University, startete Fei-Fei Li mit ihrem Forschungsteam das ImageNet-Projekt, das später weitreichende Folgen haben sollte. In ihrer 2009 veröffentlichten Arbeit „ImageNet: Eine groß angelegte hierarchische Bilddatenbank“ merkte Li an, dass die meisten Algorithmen der Computer Vision damals stark auf manuell erstellten Merkmalen und kleinen Datensätzen basierten, was die Idee des „datengetriebenen Deep Learning“ recht umstritten machte. Doch ihr unerschütterlicher Einsatz zahlte sich aus. Mit dem stillen Wandel des technologischen Paradigmas der KI wurde der groß angelegte datengetriebene Ansatz, der in der akademischen Welt einst als riskantes Unterfangen galt, schließlich zum allgemeinen Konsens.
Wie Venturebeat in seinem Bericht hervorhob.Das von Fei-Fei Li propagierte „datengetriebene Paradigma“ hat den Entwicklungspfad der Computer Vision und sogar der gesamten KI verändert.„Nach dem ImageNet-Wettbewerb 2012 konzentrierten sich die Medien schnell auf den Trend des Deep Learning. Bis 2013 hatte sich fast die gesamte Forschung im Bereich Computer Vision auf neuronale Netze verlagert.“

Als der KI-Hype einsetzte, wurde dieser Wissenschaftler, der zuvor am Rande der Einwanderung gekämpft hatte, schließlich ins Zentrum dieser Ära katapultiert.
Trotz ihrer Forschung, die den Grundstein für das Zeitalter des Deep Learning legte, hat sich Fei-Fei Li nie vollständig in die vom Silicon Valley dominierte technologische Erzählung integriert: Ihre einzigartige Perspektive, die sich aus ihrem Randstatus ergab, hat es ihr stets ermöglicht, eine kühle Distanz zum globalen KI-Hype zu wahren.
In der gängigen Erzählung über das Silicon Valley wird KI als zentrales Thema im technologischen Wettbewerb, in Machtspielen und in der nationalen Strategie dargestellt. Fei-Fei Li hingegen betrachtet dieses System aus einer humanistischen und ethischen Perspektive. Sie hat mehrfach öffentlich darauf hingewiesen, dass…Die Entwicklung von KI wird übermäßig kommerzialisiert und militarisiert. Forschungsressourcen und gesellschaftliche Vorstellungskraft konzentrieren sich auf „größere Modelle“ und „stärkere Rechenleistung“, während die sozialen Folgen der Technologie ignoriert werden.
2019 kehrte Fei-Fei Li nach Stanford zurück und gründete gemeinsam mit Marc Tessier-Lavigne, John Etchemendy und anderen das Stanford Institute for Human-Centered Artificial Intelligence (HAI). Dieses Institut integriert Ethik, den öffentlichen Sektor und vulnerable Gruppen wieder in die technische Entwicklung von KI und verankert ein Kernprinzip explizit in seinem Leitbild:Künstliche Intelligenz muss den übergeordneten Interessen der Menschheit dienen.
In einem von HAI veröffentlichten Interview erklärte Fei-Fei Li offen: „Ich gehöre nicht zur typischen Tech-Elite. Ich bin Immigrantin, Frau, Asiatin und Wissenschaftlerin. Diese Identitäten haben mir eine einzigartige Perspektive und Sichtweise verliehen.“Die zukünftigen Auswirkungen der künstlichen Intelligenz sind so tiefgreifend, dass wir unsere Autonomie bewahren müssen.Wir müssen entscheiden, wie wir diese Technologie entwickeln und einsetzen. Geben wir unsere Autonomie auf, befinden wir uns im freien Fall.

Fei-Fei Li warnt vor der Gefahr der „Entmenschlichung von KI“ und stellt sich damit dem Mythos der Silicon-Valley-Technologie entgegen.
Anders als die gängige Darstellung im Silicon Valley,Li Feifei setzt sich weiterhin für das Konzept von „KI für die Menschheit“ ein.Sie betonte, wie wichtig es sei, soziale Werte und ethische Grundsätze in die Überlegungen zur technologischen Entwicklung einzubeziehen. Sie warnte vor den potenziellen Risiken der „Entmenschlichung“ durch den technologischen Fortschritt und hob hervor, dass KI menschenzentriert sein und Technologie sich an menschlichen Bedürfnissen und Werten orientieren müsse.
Im Jahr 2018, als sie mit dem Projekt Maven konfrontiert wurde, einem von Google in Zusammenarbeit mit dem US-Verteidigungsministerium entwickelten Projekt zur Bilderkennung militärischer Drohnen, machte Fei-Fei Li in einer E-Mail ihre Ablehnung der Militarisierung von KI deutlich: „KI sollte der Menschheit nützen, und Google darf die Öffentlichkeit nicht glauben lassen, dass wir Waffen entwickeln.“

In einem Interview mit Issues sprach Fei-Fei Li auch offen über die potenziellen Risiken der KI: „Die Auswirkungen der KI-Technologie sind ein zweischneidiges Schwert. Für die Gesellschaft kann diese Technologie Krankheiten heilen, Medikamente entdecken, neue Materialien finden und Lösungen für den Klimawandel entwickeln. Gleichzeitig birgt sie aber auch Risiken, wie die Verbreitung von Fehlinformationen und drastische Veränderungen auf dem Arbeitsmarkt.“

Um die Risiken der KI weiter einzuschränken,Li Feifei hat in der Öffentlichkeit wiederholt die Notwendigkeit der Einrichtung eines Mechanismus zur Überwachung der Ethik im Bereich der künstlichen Intelligenz betont.In einem Interview mit McKinsey & Company erklärte Fei-Fei Li gelassen, die Einrichtung eines auf einem Rechtssystem basierenden Regulierungsmechanismus sei äußerst dringlich. „Rational betrachtet ist dies für die Menschheit unerlässlich, wenn sie neue Erfindungen und Entdeckungen macht. Dieser Mechanismus wird zum Teil durch Aufklärung erreicht. Wir müssen der Öffentlichkeit, den politischen Entscheidungsträgern und den Akteuren die Möglichkeiten, Grenzen und Fakten dieser Technologie verständlich machen und anschließend entsprechende Regulierungen integrieren. Der Regulierungsrahmen wird ihre Durchsetzung und Umsetzung durch Gesetze gewährleisten.“

Um die treibende Rolle der Bildung bei der ethischen Regulierung von KI zu fördern, wird unterdessen auf der Semafor Tech-Veranstaltung im Mai 2025 in San Francisco eine entsprechende Veranstaltung stattfinden.Li Feifei forderte die Trump-Regierung außerdem auf, ihre Eingriffe in die Finanzen der Universitäten zu reduzieren.Im Zuge einer kürzlich verschärften Einwanderungspolitik kürzte die Trump-Regierung die Forschungsgelder an Universitäten um Milliarden von Dollar und entzog Tausenden Studierenden die Visa. Fei-Fei Li erklärte daraufhin, dass die Sanktionierung von Forschungseinrichtungen angesichts des zunehmenden globalen technologischen Wettbewerbs potenzielle Risiken für die ethische Entwicklung von KI berge.
„Der öffentliche Sektor, insbesondere die Hochschulbildung, war schon immer ein zentraler Bestandteil des US-amerikanischen Innovationsökosystems und ein entscheidender Faktor für unser Wirtschaftswachstum. Fast unser gesamtes klassisches Wissen über künstliche Intelligenz stammt aus der akademischen Forschung, seien es Algorithmen, datengetriebene Ansätze oder die frühe Mikroprozessorforschung“, sagte Fei-Fei Li. „Die Regierung sollte weiterhin ausreichend Ressourcen für Hochschulbildung und den öffentlichen Sektor bereitstellen, damit diese Art von innovativer, unvoreingenommener und neugiergetriebener Forschung betrieben werden kann. Sie ist entscheidend für die gesunde Entwicklung unseres Ökosystems und die Förderung der nächsten Generation.“
Darüber hinaus erklärte Li Feifei offen, dass die von den Vereinigten Staaten für Bürger bestimmter Länder auferlegten Visaquoten für viele talentierte Menschen schon immer ein Problem für den Erhalt ihrer Arbeitsplätze darstellten.„Ehrlich gesagt hoffe ich, dass meine Studenten Arbeitsvisa erhalten und Wege zur Einwanderung finden können.“

Kurz gesagt, trotz des glühenden Technologieoptimismus im Silicon Valley hat Fei-Fei Li stets eine besonnene Haltung eingenommen und sich vor der Gefahr der „Entmenschlichung“ durch KI gehütet. „Viele Menschen, insbesondere im Silicon Valley, sprechen von Produktivitätssteigerungen, aber gesteigerte Produktivität bedeutet nicht, dass alle am Wohlstand teilhaben können.“Wir müssen erkennen, dass KI lediglich ein Werkzeug ist; das Werkzeug selbst besitzt keinen inhärenten Wert. Der Wert eines Werkzeugs leitet sich letztlich vom Wert des Menschen ab.
Sie betonte, dass ein menschenzentrierter Ansatz für künstliche Intelligenz aus individueller, gemeinschaftlicher und gesellschaftlicher Perspektive notwendig sei. „Wir brauchen einen menschenzentrierten Rahmen mit konzentrischen Verantwortungskreisen zwischen Einzelpersonen, Gemeinschaften und der Gesellschaft, um das gemeinsame Engagement zu gewährleisten, dass KI das menschliche Wohlbefinden verbessern soll.“
Basierend auf Erfahrungen am Rande des Lebensraums, Interpretation der Chancen und Belastungen komplexer ökologischer Nischen.
Als Frau, Immigrantin, Asiatin und Akademikerin ist Fei-Fei Li mehrfach marginalisiert und betont, dass diese Erfahrungen ihre Forschung und ihr Engagement maßgeblich beeinflusst haben. In einem Interview mit HAI erklärte Li, dass es gerade diese Erfahrungen mit Marginalisierung seien, die ihr eine völlig andere Perspektive auf neue Technologien verliehen hätten als Kindern, die in stabileren Umgebungen aufwachsen und bereits ab fünf Jahren mit Computern in Berührung kommen. Dadurch könne sie die strukturellen Verzerrungen im technologischen System immer wieder erkennen.
„Die Wissenschaft erforscht das Unbekannte, genau wie die Migration. Beides sind Reisen voller Ungewissheit, und man muss seinen eigenen Wegweiser finden. Ich glaube sogar, dass ich genau deshalb an einer menschenzentrierten künstlichen Intelligenz arbeiten möchte.“Meine Erfahrungen als Immigrantin, mein Reinigungsgeschäft, die Gesundheit meiner Eltern – alles, was ich erlebt habe, ist tief in der menschlichen Natur verwurzelt. Das hat mir eine einzigartige Perspektive und Sichtweise eröffnet.Li Feifei sprach offen.
Die Erkenntnisse, die sie aufgrund ihrer marginalisierten Identität gewinnt, gehen jedoch auch mit Missverständnissen, Kontroversen und Druck einher. Als eine der einflussreichsten Frauen im globalen Technologiesektor wird Fei-Fei Li von den Medien oft als „KI-Patin“ dargestellt. Sie hat jedoch bei zahlreichen öffentlichen Anlässen ihr Unbehagen mit dieser Symbolik und ihre Müdigkeit darüber, als „weibliches Vorbild“ bezeichnet zu werden, zum Ausdruck gebracht.
„Ich mag es nicht wirklich, als KI-Patin bezeichnet zu werden.“In ihrem Axios-Bericht merkte Fei-Fei Li an, dass die Erwartungen der Technologiebranche an Frauen übermäßig symbolisch seien, was dazu führe, dass Wissenschaftlerinnen oft mit einer „rollenbasierten Vorstellungskraft“ belastet würden: Frauen würden häufig aufgefordert, „inspirierende Geschichten“ zu erzählen, müssten Vielfalt, Durchbrüche und Hoffnung repräsentieren, würden aber nicht als gewöhnliche Wissenschaftlerinnen, Forscherinnen oder politische Entscheidungsträgerinnen angesehen und es werde nicht erwartet, dass sie sich gleichberechtigt an Kerntechnologie- und strategischen Diskussionen beteiligen.
„Ich möchte aber die Beiträge von Frauen würdigen, da sie in der Wissenschaftsgeschichte oft übersehen werden. Ich hoffe, dass es im Bereich der KI mehr als nur eine Pionierin geben wird“, erklärte Fei-Fei Li weiter. Sie fügte hinzu, die eigentliche Herausforderung bestehe darin, Geschlechtervielfalt in der Branche zur Norm zu machen. Um dieses Ideal schrittweise zu verwirklichen, initiierte sie an der Stanford University das Bildungsprogramm AI4All, das Frauen und Minderheiten den Einstieg in die KI-Branche erleichtern soll.

Auch,Die ethnische Identität von Li Feifei scheint die Aufmerksamkeit verstärkt auf die rassistischen Probleme im Zusammenhang mit ihren Forschungsergebnissen gelenkt zu haben.
ImageNet gilt zwar als Eckpfeiler der Computer-Vision-Forschung, doch sein Teilbereich „Menschen“ wird seit Langem von Wissenschaft und Medien kritisiert. Bereits 2019 berichtete The Art Newspaper über Bedenken hinsichtlich potenziell rassistischer Tendenzen in ImageNet und argumentierte, dass die Datenbank weißen Menschen häufig deutlich unzutreffende Bezeichnungen zuwies. So gaben beispielsweise der Künstler Trevor Paglen und die Forscherin Kate Crawford dem Datensatz nach dessen Verwendung online negative Bewertungen. „Ein Redakteur von The Verge wurde als Pfeifenraucher und Flugbegleiter kategorisiert, und andere Social-Media-Nutzer berichteten, mit rassistischen und anderen höchst beleidigenden Begriffen beschrieben worden zu sein.“
Obwohl eine große Anzahl negativer Rezensionen das ImageNet-Team dazu veranlasste, über eine Bereinigung und Neugestaltung des Datensatzes zu diskutieren und dabei etwa 600.000 Fotos zu löschen, wird die Annahme, ImageNet sei ein „neutraler Eckpfeiler“, weiterhin in Frage gestellt.

Gleichzeitig haben Fei-Fei Lis Minderheitsansichten sie gezwungen, sich in der Grauzone zwischen dem Mainstream des Silicon Valley und der breiten Öffentlichkeit zu bewegen, und ihre Rolle in der KI-Branche hat daher anhaltende Kontroversen ausgelöst.
„Sie ist eine Schlüsselfigur hinter der rasanten Entwicklung der KI von heute, aber nicht alle Informatiker sind sich einig, dass ihre Idee einer riesigen visuellen Datenbank richtig ist“, schrieb AP-Mitarbeiter Matt Obrien in einer Kolumne.Hinsichtlich der Themen „Menschenzentriertheit“ und „KI-Ethik“, auf die sich eine Minderheit von Wissenschaftlern wie Fei-Fei Li konzentriert hat, kritisieren einige Forscher die dahinter stehende extreme Risikotheorie schon lange als religiöse Propaganda.So erklärte beispielsweise Shyam Sankar, Chief Technology Officer von Palantir, dass er nie an die Erzählung vom „KI-Weltuntergang“ geglaubt habe und dass die Wahrscheinlichkeit katastrophaler Folgen durch KI extrem gering sei; er glaube, es handele sich um ein Gerücht, das von „Transhumanisten“ verbreitet werde.
„Die Bedrohungstheorie ist nichts weiter als ein Trick zur Mittelbeschaffung“, wies Sankar zurück. „Unternehmen, die an der Spitze der Entwicklung stehen, können dies nutzen, um Investitionen anzuziehen.“

Allerdings sind einige Kommentatoren der Ansicht, dass Fei-Fei Lis Beitrag zum Trend der Kombination von Technologie und Kapital nicht mit ihrer Forschungsvision übereinstimmt: Trotz ihres langjährigen Fokus auf die „Menschenzentrierung“ und ihrer Ablehnung einer übermäßigen Kommerzialisierung von KI hat sie als ehemalige Chef-Wissenschaftlerin von Google Cloud AI unweigerlich die Industrialisierung von KI vorangetrieben.
daher,Als führende Persönlichkeit im Bereich der „menschenzentrierten KI“ und als Gestalter der kommerziellen KI-Infrastruktur,Li Feifei befindet sich in einer etwas heiklen Lage.

Kurz gesagt, spiegelt die Haltung von Fei-Fei Li innerhalb des KI-Mythos die komplexe Wechselwirkung zwischen Wissenschaftlern, Algorithmen und menschlichen Werten wider und dient seit langem als spannungsgeladenes und warnendes Beispiel.Kann Technologie unabhängig von sozialen, ethischen und humanistischen Überlegungen existieren? Und wie lässt sich ein Gleichgewicht zwischen rascher Kommerzialisierung und langfristiger sozialer Verantwortung herstellen?Fei-Fei Lis Infragestellung der „menschenzentrierten KI“ bleibt eine ungelöste Herausforderung, die über die Erzählung des Silicon Valley von der Technologieverehrung hinausgeht.
Referenzlinks:
1.https://www.businessinsider.com/palantir-shyam-sankar-skeptical-ai-jobs-2025-10
2.https://apnews.com/article/ai-pioneer-feifei-li-stanford-computer-vision-imagenet-702717c10defd89feabf01e6c1566a4b
3.https://www.wired.com/story/fei-fei-li-artificial-intelligence-humanity/
4.https://www.theartnewspaper.com/2019/09/23/leading-online-database-to-remove-600000-images-after-art-project-reveals-its-racist-bias