HyperAIHyperAI

Command Palette

Search for a command to run...

Neues AI-Tool erkennt und beseitigt Bias in Gesundheitsdaten

Ein internationales Forschungsteam der Icahn School of Medicine am Mount Sinai hat ein neues KI-Tool namens AEquity entwickelt, um systematische Verzerrungen in medizinischen Datensätzen zu erkennen und zu korrigieren – ein entscheidender Schritt zur Verbesserung der Genauigkeit und Fairness von KI-gestützten Gesundheitsalgorithmen. Die Studie, veröffentlicht im Journal of Medical Internet Research, zeigt, wie AEquity verschiedene Arten von impliziten und expliziten Rassenvorurteilen in Datensätzen aufspürt, die für die Ausbildung von KI-Modellen verwendet werden. Dazu zählen medizinische Bilder wie Brust-Röntgenaufnahmen, elektronische Patientenakten und Daten aus der National Health and Nutrition Examination Survey (NHANES). Die Methode nutzt den Ansatz der „Subgroup Learnability“, um zu analysieren, ob bestimmte Bevölkerungsgruppen in den Trainingsdaten ausreichend repräsentiert sind und ob die KI-Modelle für alle Gruppen gleich gut funktionieren. Die Forscher fanden heraus, dass AEquity sowohl bekannte als auch bisher übersehene Verzerrungen identifizieren kann – etwa, dass bestimmte Krankheitszeichen bei bestimmten ethnischen Gruppen anders auftreten oder häufiger überdiagnostiziert werden. Wenn solche Daten zur KI-Trainings verwendet werden, können die Algorithmen diese Ungerechtigkeiten verstärken und zu fehlerhaften Diagnosen oder ungleichmäßigen Behandlungsentscheidungen führen. AEquity kann auf eine Vielzahl von Modellen angewendet werden – von einfachen Regressionsmodellen bis hin zu komplexen Systemen wie großen Sprachmodellen – und sowohl Eingabedaten als auch Ausgaben wie Risikoscores oder Diagnosen analysieren. Der erste Autor, Dr. Faris Gulamali, betont: „Unser Ziel war es, ein praktisches Werkzeug zu schaffen, das Entwickler und Gesundheitssysteme unterstützt, um sicherzustellen, dass KI-Systeme für alle Patienten funktionieren, nicht nur für die am stärksten vertretenen Gruppen.“ Die Ergebnisse deuten darauf hin, dass AEquity nicht nur im Entwicklungsprozess, sondern auch bei Audits vor der Markteinführung oder in der regulatorischen Überwachung wertvolle Dienste leisten kann. Senior-Autor Dr. Girish N. Nadkarni unterstreicht, dass technische Lösungen wie AEquity zwar notwendig, aber nicht ausreichend seien. „Die Grundlage liegt in der Datensammlung und -interpretation. Ohne verlässliche, repräsentative und ethisch fundierte Daten bleibt jede KI-Entwicklung letztlich ungleich.“ David L. Reich, Chief Clinical Officer des Mount Sinai Health Systems, sieht in der Arbeit einen Meilenstein: „Durch die Korrektur von Bias auf Datenebene lösen wir das Problem an der Wurzel. Das schafft Vertrauen in KI und stellt sicher, dass Innovationen wirklich allen helfen – nicht nur den am besten repräsentierten Gruppen.“ Industrieexperten begrüßen AEquity als bedeutenden Fortschritt im Bereich verantwortungsvoller KI im Gesundheitswesen. Es zeigt, dass Fairness nicht nur ein ethisches, sondern auch ein technisches Ziel ist, das bereits im Datenvorbereitungsprozess adressiert werden muss. Die Methode könnte künftig in der Entwicklung von KI-Tools für Diagnose, Prognose und Versorgungsplanung standardmäßig eingesetzt werden. Der Erfolg hängt jedoch davon ab, dass Datenquellen diverser und transparenter werden – ein Prozess, der auch politische und strukturelle Veränderungen erfordert.

Verwandte Links