HyperAIHyperAI
Back to Headlines

Wie AI-Vorurteile erkennen und beheben wir in der Lehre.

vor 4 Monaten

Jährlich nehmen Tausende von Studenten Kurse, die sie in der Anwendung von künstlicher Intelligenz (KI) ausbilden, um Ärzten bei der Diagnose und Therapie von Krankheiten zu helfen. Viele dieser Kurse versäumen jedoch ein wesentliche Element: das Training der Studenten im Erkennen von Fehlern in den Trainingsdaten, die zur Entwicklung der Modelle verwendet werden. Leo Anthony Celi, Senior-Forschungswissenschaftler am MIT Institute for Medical Engineering and Science, Arzt am Beth Israel Deaconess Medical Center und außerordentlicher Professor an der Harvard Medical School, hat diese Schwächen in einer neuen Studie dokumentiert und hofft, Kursentwickler zu überzeugen, ihren Schülern das gründliche Auswerten der Daten vor der Einbeziehung in ihre Modelle beizubringen. Mehrere frühere Studien haben gezeigt, dass Modelle, die hauptsächlich auf klinischen Daten von weißen Männern trainiert wurden, bei Anwendungen auf Menschen anderer Gruppen schlecht abschneiden. Celi beschreibt in seinem Artikel die Auswirkungen solcher Verzerrungen und wie Bildungsinstitutionen dies in ihren KI-Lehrgängen ansprechen könnten. Verzerrungen gelangen in Datenbestände auf verschiedene Weise. Zum Beispiel haben Untersuchungen ergeben, dass Puls-Oximeter die Sauerstoffgehalt für Menschen mit dunkler Hautfarbe überschätzen, da nicht genügend Menschen mit dunkler Hautfarbe in den klinischen Studien vertreten waren. Ähnlich wie medizinische Geräte und Ausrüstungen, die hauptsächlich an gesunden, jungen Männern optimiert wurden, sind auch elektronische Patientenakten (EPA) nicht für den Einsatz als Grundlage für KI geeignet. EPAs wurden nicht als Lernsystem entwickelt, weshalb man sehr vorsichtig sein muss, wenn man sie für KI-Algorithmen nutzt. Eine vielversprechende Lösung ist die Entwicklung von Transformer-Modellen für numerische EPA-Daten, einschließlich Laborergebnissen, Vitalzeichen und Behandlungen. Diese Modelle können die Auswirkungen fehlender Daten aufgrund sozialer Bestimmungsfaktoren und unbewusster Vorurteile der Anbieter mildern. Es ist wichtig, dass KI-Kurse die Quellen potenzieller Verzerrungen behandeln, da die Daten, die verwendet werden, oft von Problemen durchsetzt sind, die vielen Menschen nicht bewusst sind. Celis Team stellte 2016 fest, dass die meisten Kurse sich darauf konzentrieren, Modelle zu bauen, ohne auf die Qualität der Daten einzugehen. Bei 11 untersuchten Online-Kursen enthielten nur fünf Abschnitte über Verzerrungen in Datenbeständen, und lediglich zwei Kurse diskutierten dieses Thema in größerem Umfang. Trotzdem bleibt der Wert dieser Kurse unbestritten, da sie viele Menschen in das Gebiet der KI einführen. Allerdings ist es entscheidend, dass sie die richtigen Fähigkeiten lehren, insbesondere in Zeiten, in denen immer mehr Menschen in die KI-Welt hineingezogen werden. Celi hofft, dass sein Artikel Aufmerksamkeit auf diesen großen Wissenslücken in der aktuellen KI-Ausbildung bringt. Kursentwickler sollten Inhalte einbeziehen, die den Studenten eine Checkliste von Fragen geben, bevor sie Modelle bauen. Woher stammen die Daten? Wer sammelte die Daten? Welches Krankenhauspersonal war beteiligt? Studenten müssen auch das Umfeld der Institutionen verstehen, aus denen die Daten stammen. Beispielsweise sollten sie in einem Intensivmedizin-Datenbestand prüfen, wer ins Intensivkrankenhaus gelangt und wer nicht, da dies bereits eine Stichprobenauswahlverzerrung einleitet. Celis Ansatz geht so weit, dass mindestens die Hälfte des Kursinhalts dem Verständnis der Daten gewidmet sein sollte, da das Modellieren an sich einfacher wird, sobald man die Daten versteht. Seit 2014 organisiert die MIT Critical Data Consortium weltweit Datathons, bei denen Ärzte, Pflegekräfte, andere Gesundheitsdienstleister und Datenwissenschaftler zusammenarbeiten, um Datenbestände zu durchforsten und Krankheit und Gesundheit im lokalen Kontext zu untersuchen. Die meisten Lehrbücher und wissenschaftlichen Artikel präsentieren Krankheiten basierend auf Beobachtungen und Studien, die eine enge Demografie aus Ländern mit Forschungsressourcen betreffen. Das Hauptziel ist es, den Studenten kritisches Denken beizubringen, indem Menschen mit unterschiedlichen Hintergründen zusammengebracht werden. Kritisches Denken kann nicht in einem Raum voller CEOs oder Ärzte effektiv gelehrt werden; die richtige Umgebung entsteht erst, wenn Menschen aus verschiedenen Generationen und Hintergründen zusammenkommen. Celis Team ermutigt die Teilnehmer, lokale Datenbestände zu suchen, damit die Modelle relevant bleiben. Obwohl dies Widerstand findet, da man die Qualität der Daten erkennen muss, betont Celi, dass dies notwendig ist, um Verbesserungen herbeizuführen. Das Projekt MIMIC, eine umfangreiche Datenbank für intensive Medizin, benötigte zehn Jahre, um ein vernünftiges Schema zu entwickeln, und das nur, weil Menschen darauf hinwiesen, wie schlecht MIMIC zu Beginn war. Celis Arbeit hat bereits positive Resonanz gefunden. Blogbeiträge von Teilnehmern der Datathons zeigen, dass ihre Welt verändert wurde und sie nun das große Potenzial der KI erkennen, aber auch die Gefahren, die sich ergeben, wenn sie nicht korrekt eingesetzt wird. Celis Studie unterstreicht die Notwendigkeit, den Schülern die Komplexität und die Herausforderungen der Datenanalyse nahezubringen, um verantwortungsbewusst mit KI umgehen zu können. Die Industrieinsider sehen darin eine wichtige Lücke in der aktuellen Ausbildung, die geschlossen werden muss, um die Glaubwürdigkeit und Effektivität der KI-Anwendungen in der Medizin zu gewährleisten. KI-Modelle, die auf verfälschten Daten basieren, können zu schwerwiegenden Fehldiagnosen und ineffektiven Therapien führen. Daher ist es dringend erforderlich, dass Kursentwickler diese Themen in ihren Lehrplänen integrieren.

Related Links

Wie AI-Vorurteile erkennen und beheben wir in der Lehre. | Schlagzeilen | HyperAI