MIT verstößt gegen eigene Richtlinien zur KI-Forschung
Die Massachusetts Institute of Technology (MIT) hat erneut ihre eigenen Richtlinien zur Verwendung von Künstlicher Intelligenz in der Forschung in Frage gestellt, als ein Artikel über KI im Bereich der psychischen Gesundheit veröffentlicht wurde, der starke Hinweise auf maschinelle Texterstellung aufwies. Der Beitrag, der unter dem Titel „AI in Mental Health“ erschien, enthielt typische Redewendungen und formelhafte Formulierungen, die als Kennzeichen für künstlich generierte Inhalte gelten – etwa die Aussage: „ein ganzheitlicher Ansatz, der technologische Schutzmaßnahmen mit breiteren gesellschaftlichen Interventionen verbindet, um sinnvolle menschliche Beziehungen zu fördern“. Solche Formulierungen sind in der wissenschaftlichen Literatur ungewöhnlich, da sie oft überflüssige Generalisierungen und abstrakte, aber inhaltsleere Phrasen enthalten, die typisch für KI-Textgeneratoren wie GPT sind. Die Kritik richtet sich nicht nur gegen den Inhalt, sondern auch gegen die Prozesse innerhalb der Hochschule: Obwohl MIT 2023 klare Regeln für die ethische Nutzung von KI in der Forschung eingeführt hat – unter anderem die Pflicht zur Transparenz bei der Verwendung von KI-Tools und die Vermeidung von automatisiertem Text, der die wissenschaftliche Integrität gefährdet – wurde diese Vorgabe offenbar ignoriert. Der Artikel wurde offenbar ohne ausreichende menschliche Überarbeitung oder ethische Prüfung veröffentlicht, was die Glaubwürdigkeit der Institution in Frage stellt. Die Bedenken sind nicht nur auf den einzelnen Artikel beschränkt, sondern berühren ein tieferliegendes Problem: Die zunehmende Verwendung von KI in der akademischen Forschung, insbesondere in sensiblen Bereichen wie der psychischen Gesundheit, birgt erhebliche Risiken. KI-Modelle sind nicht für die Behandlung von Patienten oder die Erstellung medizinisch verantwortungsvoller Inhalte ausgelegt. Sie können Fehlinformationen verbreiten, klinisch unangemessene Empfehlungen liefern und das Vertrauen in wissenschaftliche Ergebnisse untergraben – besonders dann, wenn die Quellen nicht klar angegeben werden. Industrieexperten warnen vor einer „KI-Verfälschung der Wissenschaft“, bei der die Qualität der Forschung durch die schnelle, aber oberflächliche Erstellung von Artikeln sinkt. „Wenn Forscher KI nutzen, um Inhalte zu produzieren, ohne sie kritisch zu prüfen, gefährden sie die Glaubwürdigkeit der gesamten wissenschaftlichen Gemeinschaft“, sagt Dr. Lena Müller, Forschungsmanagerin an der Universität Heidelberg. „Besonders in der Psychiatrie ist das verheerend – hier geht es um Menschenleben, nicht um algorithmische Textmuster.“ MIT, eine der führenden Institutionen im Bereich KI-Forschung, steht unter Druck, ihre eigenen Standards durchzusetzen. Die Institution hat bereits angekündigt, eine interne Prüfung der Verwendung von KI in Forschungsprojekten einzuleiten. Doch viele sehen darin nur eine Reaktion auf die öffentliche Kritik, nicht einen tiefgreifenden Wandel. Die Frage bleibt: Kann eine Institution, die selbst die Technologie voranbringt, auch die ethischen Grenzen der Technologie klar definieren und einhalten? Die Antwort wird entscheidend für das Vertrauen in die Zukunft der Wissenschaft sein.