MIT untersucht Datenschutzrisiken von KI in der Medizin
In einer neuen Studie untersuchen Wissenschaftlerinnen des Massachusetts Institute of Technology (MIT), insbesondere Sana Tonekaboni vom Eric und Wendy Schmidt Center am Broad Institute und MIT-Professorin Marzyeh Ghassemi vom Abdul Latif Jameel Clinic for Machine Learning in Health, das Risiko der Datenspeicherung durch künstliche Intelligenz (KI) in der Medizin. Das Team untersucht, wie sogenannte „Foundation Models“, die auf de-identifizierten elektronischen Gesundheitsakten (EHRs) trainiert wurden, trotz Datenschutzmaßnahmen sensible Patientinneninformationen speichern und potenziell preisgeben können. Die Forschung wurde auf der NeurIPS 2025 präsentiert und legt einen Fokus auf die praktische Bewertung von Datenschutzverletzungen in klinischen KI-Systemen. Während KI-Modelle normalerweise allgemeine Muster aus großen Datensätzen lernen sollen, kann bei „Memorization“ ein einzelner Patientenfall im Modell „eingespeichert“ werden – was zu einer gezielten Ausgabe sensibler Daten führen könnte, wenn ein Angreifer die richtigen Eingaben (Prompts) nutzt. Die Studie zeigt, dass die Wahrscheinlichkeit solcher Datenlecks mit steigendem Wissen des Angreifers über den betroffenen Patienten ansteigt. So ist die Gefahr gering, wenn der Angreifer nur wenige Laborwerte kennt – aber hoch, wenn er spezifische, seltene Merkmale wie ein einzigartiges Krankheitsbild oder eine seltene Diagnose kennt. Besonders gefährdet sind Patient*innen mit seltenen Erkrankungen, da sie durch wenige Merkmale leicht identifizierbar sind. Die Forscher entwickelten eine Reihe von Tests, um zwischen allgemeiner Modellgeneralisierung und patientenspezifischer Speicherung zu unterscheiden. Dabei zeigte sich, dass nicht alle Datenlecks gleich gefährlich sind: Die Enthüllung von Altersangaben oder Geschlecht ist weniger schädlich als die Offenlegung von HIV-Diagnosen oder Alkoholmissbrauch. Die Ergebnisse unterstreichen, dass Datenschutz in der KI-gestützten Medizin nicht nur technisch, sondern auch kontextabhängig bewertet werden muss. Die Autoren fordern daher standardisierte, klinisch relevante Prüfverfahren, bevor solche Modelle in der Praxis eingesetzt werden. Die Forschung wird von mehreren Institutionen unterstützt, darunter das NSF, die Knut und Alice Wallenberg Foundation, Google Research und die AI2050-Initiative. Industrieexperten betonen, dass die Studie einen entscheidenden Schritt in Richtung verantwortungsvoller KI-Entwicklung in der Gesundheitsversorgung darstellt. „Die Ergebnisse zeigen, dass Datenschutz in KI nicht nur eine technische Herausforderung, sondern ein klinisches und ethisches Anliegen ist“, sagt ein KI-Experte aus dem Gesundheitssektor. Die enge Zusammenarbeit mit Klinikerinnen und Rechtsexperten, wie von den Forscherinnen angekündigt, wird als notwendig erachtet, um realistische Risikomodelle zu entwickeln. Ghassemis Gruppe am Healthy ML Lab ist bereits führend in der Forschung zu robusten, vertrauenswürdigen KI-Systemen in der Medizin. Die Arbeit unterstreicht, dass der Schutz sensibler Gesundheitsdaten nicht nur eine technische, sondern eine gesellschaftliche Verpflichtung ist – und dass der medizinische Datenschutz, wie in der Hippokratischen Eidesformel verankert, auch im Zeitalter der KI unverzichtbar bleibt.
