Rahmenwerk für sichere und wirksame KI im Gesundheitswesen
Künstliche Intelligenz (KI) wird in der Gesundheitsversorgung rasant eingeführt – doch die dafür notwendigen Regulierungs- und Evaluationsstrukturen entwickeln sich zu langsam. Ein am 13. Oktober 2025 im Journal of the American Medical Association veröffentlichter Bericht, der von Michelle Mello, Professorin für Recht und Gesundheitspolitik an der Stanford Law School und der Stanford University School of Medicine, mitverfasst wurde, legt einen konkreten Fahrplan für eine verantwortungsvolle KI-Integration vor. Der Bericht entstand aus dem 2024 veranstalteten JAMA-Summit zum Thema Künstliche Intelligenz, an dem über 60 führende Experten aus Medizin, Recht, Politik und Industrie teilnahmen. Ziel war es, die Chancen und Risiken der KI-Nutzung im klinischen Alltag zu bewerten und praktikable Lösungen zu entwickeln. Mello betont, dass KI das Potenzial hat, administrative Lasten zu reduzieren, Diagnosen präziser zu machen, Behandlungen zu personalisieren und medizinische Versorgung für benachteiligte Bevölkerungsgruppen zu erweitern. Doch ohne ausreichende Überwachung, Bewertung und Anreize droht die Technologie, nur die Effizienz zu steigern, nicht aber die Patientenoutcome zu verbessern. KI-Tools, die in Kliniken eingesetzt werden – von Sepsis-Warnsystemen über mobile Apps zur Herzrhythmus-Überwachung bis hin zu KI-Sekretären, die Gespräche transkribieren – sind oft nicht ausreichend evaluiert. Besonders problematisch: Viele KI-Anwendungen, die die Patientenversorgung direkt beeinflussen, wie Algorithmen für die Vorab-Prüfung oder die Terminplanung, unterliegen keiner FDA-Überwachung. Direkt-an-Verbraucher-Apps werden häufig als „Wohlfühl-Tools“ klassifiziert und entgehen damit jeglicher Regulierung, obwohl sie medizinische Entscheidungen beeinflussen können. Der Bericht formuliert vier zentrale Prioritäten: Erstens eine multistakeholder-orientierte Integration über den gesamten Lebenszyklus eines KI-Tools – mit Beteiligung von Entwicklern, Ärzten, Patienten, Gesundheitssystemen und Regulatoren. Zweitens die Entwicklung robuster Bewertungsinstrumente, die nicht nur technische Leistung, sondern auch klinische Wirksamkeit in realen Umgebungen messen. Drittens die Schaffung einer nationalen Dateninfrastruktur, vergleichbar mit dem FDA-Sentinel-System, um Sicherheitsrisiken und Nutzen in Echtzeit zu überwachen. Viertens eine stärkere und besser koordinierte regulatorische Verantwortung der FDA und anderer Behörden, unterstützt durch klare Regeln, Finanzierungsmöglichkeiten und Anreize für Entwickler und Krankenhäuser, an Evaluierungen teilzunehmen. „Die KI-Entwicklung soll nicht verlangsamt werden, sondern sicherstellen, dass ihre Vorteile messbar, nachvollziehbar und gerecht verteilt sind“, sagt Mello. Aktuell fällt die Überwachung oft nur auf Prozesssicherheit und Transparenz, nicht auf tatsächliche Verbesserungen der Patientenversorgung. Die Studie fordert daher eine Verschiebung der Aufmerksamkeit hin zu Ergebnisbewertung und Gerechtigkeit. Die Empfehlungen sind besonders relevant angesichts der zunehmenden KI-Nutzung in der Praxis. Die Berichterstatter betonen, dass die Zukunft der Gesundheitsversorgung nicht allein von Technologie abhängt, sondern von einem System, das Innovation mit Verantwortung verbindet.
