Chinas Zukunftsdoktor-Team legt neuen Standard für sichere und wirksame medizinische KI fest
NEW YORK – Future Doctor, ein aus China stammendes Unternehmen für künstliche Intelligenz im Gesundheitswesen, hat gemeinsam mit 32 klinischen Experten eine neue Studie in der Zeitschrift npj Digital Medicine der Nature Portfolio veröffentlicht. Das Forschungsteam stellt einen neuen Bewertungsansatz vor: den „Clinical Safety-Effectiveness Dual-Track Benchmark“ (CSEDB). Dieser Rahmen dient dazu, die Sicherheit und Wirksamkeit medizinischer KI-Systeme in der realen klinischen Entscheidungsfindung zu messen. Der CSEDB zielt darauf ab, die bisherige Lücke zwischen labormäßigen Tests und dem tatsächlichen Einsatz von KI in klinischen Umgebungen zu schließen. Im Zentrum der Studie steht eine vergleichende Bewertung führender Großsprachmodelle wie OpenAI’s o3 und Google’s Gemini 2.5 Pro. Die Forscher testeten die Modelle anhand realer klinischer Szenarien, darunter Diagnosestellung, Behandlungsplanung und Risikobewertung. Dabei wurde nicht nur die klinische Genauigkeit der Antworten analysiert, sondern auch deren Sicherheit – beispielsweise ob die KI gefährliche oder irreführende Empfehlungen gab. Der CSEDB erfasst daher zwei getrennte, aber gleichwertige Dimensionen: die klinische Effektivität und die Sicherheitsintegrität. Die Ergebnisse zeigen erhebliche Unterschiede zwischen den Modellen. Während einige Systeme hohe Genauigkeit bei der Diagnose erreichten, zeigten sie in bestimmten Fällen gravierende Sicherheitslücken – etwa bei der Empfehlung von Medikamenten in kontraindizierten Situationen. Andere Modelle waren sicherer, aber weniger effektiv in der Diagnose. Der CSEDB ermöglicht es, solche Trade-offs sichtbar zu machen und fundierte Entscheidungen für den Einsatz in der Praxis zu treffen. Die Studie unterstreicht, dass die bloße Leistung in standardisierten Benchmarks nicht ausreicht, um die Eignung einer KI im Gesundheitswesen zu beurteilen. Klinische Entscheidungen erfordern nicht nur korrekte Antworten, sondern auch Verlässlichkeit, Kontextverstehen und ethische Verantwortung. Der neue Ansatz könnte daher eine wichtige Grundlage für regulatorische Rahmenbedingungen, Zertifizierungen und die Entwicklung sicherer KI-Anwendungen in der Medizin werden. Experten begrüßen die Studie als Meilenstein in der Bewertung medizinischer KI. Sie betonen, dass der CSEDB ein Standardwerkzeug sein könnte, um die Transparenz und Verantwortlichkeit von KI-Systemen im Gesundheitswesen zu erhöhen. Besonders wichtig sei, dass der Ansatz von klinischen Fachleuten mit praktischer Erfahrung entwickelt wurde – was die Relevanz für den täglichen Einsatz erhöht. Zukünftig könnte der CSEDB auch als Basis für internationale Standards dienen. Da die KI im Gesundheitswesen weltweit schneller voranschreitet, wird eine einheitliche, wissenschaftlich fundierte Bewertung immer dringender. Future Doctor und die beteiligten Experten fordern daher eine breitere Akzeptanz des CSEDB in der Forschung, der Industrie und bei Aufsichtsbehörden. Insgesamt stellt die Studie einen bedeutenden Fortschritt dar, um sicherzustellen, dass KI in der Medizin nicht nur intelligent, sondern auch vertrauenswürdig und sicher ist. Mit dem CSEDB wird ein neuer Maßstab gesetzt, der die Entwicklung von KI-Systemen in der Gesundheitsversorgung nachhaltig prägen könnte.
