Medizinische KI darf nicht ohne Wissen der Patienten trainiert werden
Die zunehmende Integration künstlicher Intelligenz (KI) in die Medizin birgt erhebliche Risiken, insbesondere wenn Gesundheitsdaten von Patienten ohne deren Wissen oder Einwilligung für das Training von KI-Modellen verwendet werden. Ein Kommentar in Nature (642, 864–866; 2025) warnt davor, dass der ungezügelte Einsatz von KI in klinischen Umgebungen zu einer Verfälschung elektronischer Gesundheitsakten führen könnte, was wiederum die langfristige Qualität und Zuverlässigkeit von KI-Systemen beeinträchtigen würde, die diese Daten interpretieren. Ein zentrales Problem liegt in der fehlenden Transparenz: Die meisten Patienten sind nicht darüber informiert, dass ihre medizinischen Daten zur Entwicklung oder Optimierung von KI-Anwendungen herangezogen werden. Dies wirft ethische, rechtliche und vertrauensbasierte Herausforderungen auf, da die Nutzung sensibler Gesundheitsinformationen ohne informierte Zustimmung das Recht auf Datenschutz und Autonomie verletzt. Die Nutzung von Patientendaten für KI-Entwicklung ist zwar wissenschaftlich wertvoll – sie ermöglicht präzisere Diagnosen, personalisierte Therapien und effizientere Behandlungsplanung. Doch ohne klare Rahmenbedingungen und transparente Prozesse besteht die Gefahr, dass Daten missbraucht oder unethisch verarbeitet werden. Zudem kann die kontinuierliche Anpassung von KI-Modellen an Daten aus klinischen Alltagssystemen zu einem sogenannten „Feedback-Loop“ führen, bei dem sich Fehler in den Daten selbst verstärken und die KI-Systeme schließlich auf verfälschten oder verzerrten Mustern basieren. Dies könnte zu falschen Diagnosen, unangemessenen Behandlungsempfehlungen und letztlich zu Schäden für Patienten führen. Daher fordern Experten eine verpflichtende, transparente Einwilligung, die nicht nur formell, sondern auch verständlich und nachvollziehbar ist. Patienten sollten wissen, wie ihre Daten verwendet werden, wer Zugriff hat, und welche Sicherheitsmaßnahmen gelten. Zudem müssen ethische Komitees und regulatorische Gremien stärker in den Prozess einbezogen werden, um sicherzustellen, dass KI-Entwicklung im Gesundheitswesen verantwortungsbewusst und im öffentlichen Interesse erfolgt. Industrieinsider betonen, dass vertrauenswürdige KI in der Medizin nur dann funktioniert, wenn sie auf einer soliden Grundlage von Transparenz und ethischer Verantwortung basiert. Unternehmen wie IBM Watson Health oder Google Health haben bereits Erfahrungen mit datenbasierten KI-Systemen gesammelt, die jedoch oft auf Kritik stießen, weil sie ohne ausreichende Einwilligung oder Datenzugang operierten. Einige Anbieter setzen mittlerweile auf „Federated Learning“, bei dem KI-Modelle lokal auf Patientendaten trainiert werden, ohne dass die Daten zentral gesammelt werden – ein Ansatz, der Datenschutz und Datensicherheit verbessert. Zusammenfassend ist klar: KI in der Medizin hat großes Potenzial, doch dieses kann nur dann realisiert werden, wenn Patienten aktiv in den Prozess einbezogen werden. Ohne informierte Einwilligung und ethische Standards droht nicht nur der Verlust des Vertrauens in digitale Gesundheitssysteme, sondern auch eine langfristige Degradierung der Datenqualität und der medizinischen Versorgung. Die Zukunft der KI in der Medizin hängt weniger von technologischen Fortschritten ab als vielmehr von der Fähigkeit, Vertrauen, Transparenz und ethische Verantwortung zu wahren.