Künstliche Intelligenz erkennt Suizidrisiko nur unzureichend
Künstliche Intelligenz (KI) und maschinelles Lernen zeigen bei der Vorhersage von Suizidversuchen und Selbstverletzungen nur geringe Genauigkeit, wie eine umfassende Studie im Fachjournal PLOS Medicine vom 11. September 2024 zeigt. Forscher um Matthew Spittal von der University of Melbourne analysierten 53 bisherige Studien, die maschinelle Lernmodelle zur Risikoeinschätzung von Suizid und Selbstschädigung nutzten. Die Gesamtdatenbasis umfasste über 35 Millionen medizinische Akten und fast 250.000 Fälle von Suizid oder hospitalisierter Selbstverletzung. Obwohl die Algorithmen eine hohe Spezifität aufwiesen – das heißt, sie erkannten zuverlässig Personen, die nicht erneut Selbstverletzungen begehen oder sterben würden – zeigten sie eine katastrophal niedrige Sensitivität. Mehr als die Hälfte der späteren Suizidversuche oder Selbstverletzungen wurden falsch als geringes Risiko eingestuft. Unter den als hochrisikobehaftet klassifizierten Personen starben nur 6 % durch Suizid, weniger als 20 % kehrten erneut zur Behandlung zurück. Damit erfüllen die Modelle weder die Anforderungen an eine zuverlässige Früherkennung noch an die Priorisierung von Interventionen. Die Autoren betonen, dass die Leistung der KI-Tools nicht besser sei als herkömmliche Risikoskalen, die bereits seit Jahrzehnten verwendet werden und ebenfalls nur geringe Vorhersagekraft besitzen. Zudem sei die Qualität der meisten zugrundeliegenden Studien niedrig oder unklar, mit hohem Risiko für Verzerrungen. Die Forscher kommen daher zu dem Schluss, dass es derzeit keine ausreichenden Beweise gibt, um aktuelle klinische Leitlinien zu ändern. Viele Leitlinien weltweit warnen bereits vor der Nutzung von Risikobewertungen zur Entscheidung über Nachsorgeinterventionen – und die neue Studie bestätigt, dass KI-Modelle diesen Ansatz nicht überlegen machen. Die Ergebnisse stoßen auf erhebliche Bedenken in der Fachwelt. Experten weisen darauf hin, dass die Entwicklung von KI-Tools zur Suizidprävention oft von hohen Erwartungen getragen wird, ohne dass die zugrundeliegenden Datenstrukturen oder die ethischen Implikationen ausreichend berücksichtigt werden. „Die hohe Anzahl an falsch-negativen Ergebnissen ist besonders beunruhigend“, sagt eine Psychiatrie-Experte aus Deutschland, „denn sie bedeutet, dass Menschen, die dringend Hilfe brauchen, möglicherweise übersehen werden.“ Auch die Industrie, darunter Tech-Unternehmen wie Google Health oder Apple, die an KI-gestützten Gesundheitsanwendungen arbeiten, räumen ein, dass derzeitige Algorithmen nicht für klinische Entscheidungen geeignet seien. Die Studie unterstreicht, dass Technologie allein keine Lösung für die komplexe Herausforderung der Suizidprävention darstellt – stattdessen bleibt der menschliche Faktor, klinische Beurteilung und individuelle Gespräche unverzichtbar.
