Stanford-Forscher nutzen AI mit Fokus auf Verantwortung und Langfristigkeit
Stanford-Forschungsgruppen setzen auf verantwortungsvolle und langfristige KI-Entwicklung, statt auf schnelle, marktgetriebene Innovationen. Im Gegensatz zum Silicon-Valley-Motto „Beweg dich schnell und zerstöre Dinge“ betonen die Wissenschaftler:innen an der Stanford University Vorsicht, wissenschaftliche Sorgfalt und tiefgreifende Analyse. Yuyan Wang, Assistentprofessorin für Marketing, kehrte aus der Industrie – wo sie bei Uber und Google DeepMind an KI-Systemen arbeitete – in die Akademie zurück, weil sie fundamentale Fragen zur Funktionsweise von KI besser verstehen wollte. Ähnlich geht es Dora Demszky, Assistentprofessorin für Bildungsdatenwissenschaft: Sie betont die Notwendigkeit, KI-Tools sorgfältig zu evaluieren, bevor sie in Bildungssysteme integriert werden. Ihre Arbeit konzentriert sich darauf, Lehrkräfte durch KI-Tools zu unterstützen, statt direkt Schüler:innen zu ersetzen. Ein zentrales Beispiel ist das Projekt Mineral X von Jef Caers, Professor für Erd- und Planetenwissenschaften. Mit Hilfe von KI-Modellen gelang es ihm, eine hochwertige Kupferlagerstätte zu identifizieren, bei der traditionelle Methoden nur geringe Aussicht auf Erfolg boten. Die KI analysiert komplexe geophysikalische, geochemische und satellitengestützte Daten – inklusive historischer Karten aus dem frühen 20. Jahrhundert –, um die optimale Bohrstrategie vorherzusagen. Caers kooperiert mit Mykel Kochenderfer, um sicherere KI-Systeme für unsichere Umgebungen zu entwickeln. In der Klimaforschung nutzt Aditi Sheshadri KI, um atmosphärische Gravitationswellen besser zu verstehen – ein entscheidender, aber bisher kaum berücksichtigter Faktor in Klimamodellen. Ihr Projekt Datawave verbindet Beobachtungen, Simulationen und KI, um Unsicherheiten in Klimaprojektionen zu reduzieren. Gleichzeitig warnt sie vor der Gefahr, dass KI-Modelle auf vergangenen Daten trainiert werden, um zukünftige Klimaszenarien vorherzusagen – was die Validität der Vorhersagen beeinträchtigen kann. Im Rechtssystem setzt Liftlab, geleitet von Megan Ma und Julian Nyarko, auf eine kritische, realitätsnahe Nutzung von KI. Sie evaluieren Tools zur Vertragsautomatisierung, zur Reduzierung von Rassismus in juristischen Entscheidungen und zur Verbesserung der Ausbildung von Anwält:innen. KI soll das Fachwissen stärken, nicht ersetzen. In der Medizin arbeitet Roxana Daneshjou an KI-Systemen zur Diagnose und Patientenbetreuung, aber mit einem klaren Fokus auf ethische Risiken. Ihre Studien zeigen, dass große Sprachmodelle bei medizinischen Fragen manchmal „sycophantic“ reagieren – also das sagen, was der Nutzer hören möchte, statt die Wahrheit. Sie warnt vor vorschneller Einführung von KI in klinische Umgebungen. Chelsea Finn entwickelt KI-gestützte Roboter, die durch maschinelles Lernen aus realen Daten lernen. Ihr Projekt DROID sammelte Trainingsdaten aus 50 Gebäuden an 15 Institutionen und ist vollständig offen. Die Roboter sollen künftig in beliebigen Haushalten funktionieren – eine Herausforderung, die nur durch große, vielfältige Datensätze und fortschrittliche „Vision-Language-Action“-Modelle zu meistern ist. Laura Gwilliams vergleicht Sprachmodelle mit menschlichen Gehirnen, um zu verstehen, wie Sprache verarbeitet wird. Mit Hilfe von LLMs simuliert sie Schäden im Gehirn, um Sprachstörungen nachzuvollziehen. Auch hier gilt: KI ist ein Werkzeug, aber kein Ersatz für wissenschaftliche Verständnis. Brian Trippe nutzt KI, um Proteine präzise zu modellieren – eine Schlüsseltechnologie für neue Medikamente. Seine Arbeit baut auf dem Nobel-Preis-gekrönten AlphaFold auf und kombiniert statistische Methoden mit physikalischen Prinzipien, um Therapien schneller und sicherer zu entwickeln. Insgesamt zeigt Stanford, dass verantwortungsvolle KI-Forschung nicht langsamer ist, sondern tiefer, nachhaltiger und präziser. Die Forscher:innen betonen: KI muss nicht nur funktionieren, sondern auch verständlich, fair und sicher sein – besonders wenn Menschenleben auf dem Spiel stehen.