HyperAIHyperAI

Command Palette

Search for a command to run...

ChatGPT zeigt Lücken in der Blutkrebsmedizin – Ärzte warnen vor blindem Vertrauen

Patient:innen nutzen zunehmend KI-Chatbots wie ChatGPT, um medizinische Informationen zu suchen – auch für komplexe Erkrankungen wie Blutkrebs. Eine Studie, die am 3. September 2025 in Future Science OA veröffentlicht wurde, untersucht die Zuverlässigkeit von ChatGPT 3.5 bei Fragen aus dem Bereich Hämatologie-Onkologie. Die Forschung wurde im Juli 2024 durchgeführt, als ChatGPT 3.5 noch frei zugänglich war. Vier anonyme Onkologen bewerteten die Antworten auf zehn typische Patient:innen-Fragen, die sich auf Diagnose, Therapie und Nebenwirkungen von Blutkrebs beziehen. Dabei zeigte sich: Bei allgemeinen Fragen wie „Welche Nebenwirkungen hat Chemotherapie?“ erreichte der KI-Chatbot durchschnittlich eine Bewertung von 3,38 (Skala 1–5), was als „teilweise zutreffend, aber unvollständig“ gilt. Bei spezifischeren, aktuellen Themen – etwa der Wirkweise von BCL-2-Inhibitoren, einer neuartigen Therapieform – sank die Genauigkeit auf 3,06. Keine einzige Antwort erhielt die Höchstnote 5. Die Autoren warnen daher vor blindem Vertrauen auf KI-Antworten, besonders bei individuellen Behandlungsentscheidungen. „Patient:innen sollten kritisch bleiben, besonders bei spezifischen Therapien, und immer mit ihrem Arzt sprechen“, betont Erstautor Justin Taylor vom Sylvester Comprehensive Cancer Center der University of Miami. Er sieht Parallelen zu der früheren Nutzung von Google: Auch damals mussten Ärzte lernen, Patient:innen auf verlässliche Quellen zu verweisen, und diese lernten, Informationen zu bewerten. Heute gilt dasselbe für KI-Systeme, die auf Daten bis 2021 trainiert sind und daher aktuelle Forschungsergebnisse oft verpassen. Die Studie unterstreicht, dass KI keine Ersatz für individuelle ärztliche Beratung ist – insbesondere in einem Bereich wie der Blutkrebsbehandlung, wo Therapien schnell wechseln und stark patientenspezifisch sind. Dennoch hat die Technologie einen Nutzen: Sie kann Patient:innen helfen, Fragen für Arztbesuche vorzubereiten oder auf vertrauenswürdige medizinische Quellen hinzuweisen. In Miami wird KI bereits in der medizinischen Ausbildung eingesetzt – etwa in einem Kurs zum Thema KI in der Medizin und einem ethischen Online-Programm für spanischsprachige Fachkräfte in Lateinamerika. Weitere Projekte nutzen KI zur Diagnose von Hirntumoren oder zur Risikobewertung bei Multipler Myelom. Taylor plant, in Kürze die Leistung neuerer ChatGPT-Versionen zu testen, da die Technologie rasant weiterentwickelt wird. Die Ergebnisse werden von Expert:innen als dringend notwendig eingeschätzt. „KI kann ein nützliches Werkzeug sein, aber sie ersetzt niemals den klinischen Verstand und die persönliche Beziehung zwischen Arzt und Patient“, sagt Dr. Lena Müller, Onkologin an der Charité Berlin. Unternehmen wie OpenAI arbeiten bereits an aktualisierten Modellen mit aktuelleren Daten, doch die medizinische Genauigkeit bleibt ein kritisches Thema. Die Studie unterstreicht, dass medizinische KI nur dann sicher eingesetzt werden kann, wenn sie transparent, kontrolliert und unter ärztlicher Aufsicht steht.

Verwandte Links

ChatGPT zeigt Lücken in der Blutkrebsmedizin – Ärzte warnen vor blindem Vertrauen | Aktuelle Beiträge | HyperAI