HyperAIHyperAI
Back to Headlines

Künstliche Intelligenz verschlechtert medizinische Versorgung für Frauen und Minderheiten

vor 4 Tagen

AI-gestützte medizinische Tools leisten bei Frauen und unterrepräsentierten Bevölkerungsgruppen eine schlechtere Versorgung, da sie auf historisch einseitigen Datensätzen basieren, die überwiegend weiße Männer als Probanden enthalten. Laut einem Bericht der Financial Times führen diese Verzerrungen dazu, dass KI-Modelle in klinischen Entscheidungen systematisch Benachteiligungen vorsehen. Eine Studie des Massachusetts Institute of Technology (MIT) zeigte, dass große Sprachmodelle wie OpenAI’s GPT-4 und Meta’s Llama 3 bei weiblichen Patientinnen eher Empfehlungen zur Selbstbehandlung zu Hause aussprachen, was zu einer reduzierten medizinischen Versorgung führte. Auch spezialisierte medizinische KI-Modelle wie Palmyra-Med zeigten vergleichbare Verzerrungen. Eine Analyse von Googles Gemma durch die London School of Economics ergab, dass Frauenbedürfnisse im Vergleich zu Männern häufiger heruntergespielt wurden. Ein weiteres Forschungspapier aus dem Jahr 2023 in The Lancet offenbarte, dass GPT-4 systematisch Stereotypen hinsichtlich Rasse, Ethnizität und Geschlecht aufgriff und Behandlungspläne auf Basis von Demografiedaten statt klinischer Symptome erstellte. Dabei wurden ethnische Minderheiten und Frauen häufiger mit teureren, weniger notwendigen Eingriffen konfrontiert, während ihre Empfindungen und Bedürfnisse unterschätzt wurden. Auch in der psychischen Gesundheit zeigte sich ein Mangel an Empathie gegenüber Menschen von Farbe, die von KI-Modellen weniger unterstützende Empfehlungen erhielten. Diese Verzerrungen sind besonders alarmierend, da Tech-Riesen wie Google, Meta und OpenAI ihre KI-Systeme aktiv in Krankenhäusern etablieren wollen – ein Markt mit hohem Gewinnpotenzial, aber auch erheblichen Risiken. So machte Googles Med-Gemini im Frühjahr Schlagzeilen, weil sie eine erfundene Körperregion nannte – ein offensichtlicher Fehler, der jedoch nur die Spitze des Eisbergs darstellt. Die subtileren, oft unbewussten Vorurteile sind schwerer zu erkennen. Es bleibt fraglich, ob Ärztinnen und Ärzte ausreichend sensibilisiert sind, um solche KI-Empfehlungen kritisch zu hinterfragen. Die Integration von KI in die Medizin erfordert dringend robuste ethische Rahmenbedingungen, transparente Datenaufbereitung und kontinuierliche Bias-Tests, um Gerechtigkeit und Sicherheit zu gewährleisten. Industrieexperten warnen, dass die fehlende Vielfalt in Trainingsdaten und die fehlende Regulierung KI-Systeme zu einer Verstärkung bestehender Ungerechtigkeiten im Gesundheitswesen führen könnten. Experten von der Harvard Medical School betonen, dass medizinische KI nur dann vertrauenswürdig sei, wenn sie auf repräsentativen, diversifizierten Datensätzen trainiert wird. Google, Meta und OpenAI haben zwar erste Schritte zur Bias-Minderung unternommen, doch fehlt bislang ein standardisierter Ansatz zur Überprüfung von KI in klinischen Umgebungen. Die Entwicklung von „Fairness-Checks“ und unabhängigen Audits wird zunehmend als unverzichtbar angesehen, um die Glaubwürdigkeit und Gerechtigkeit künstlicher Intelligenz im Gesundheitswesen zu sichern.

Related Links