Wikipedia kämpft mit AI-Schund durch schnelle Löschung und bessere Tools
Mit dem Aufkommen von KI-Textgeneratoren steht Wikipedia vor einer Flut von Inhalten, die aus künstlicher Intelligenz stammen und oft falsche Informationen sowie gefälschte Quellen enthalten. In Reaktion darauf haben die ehrenamtlichen Redakteure von Wikipedia eine Art „Immunsystem“ aktiviert, um die Qualität und Zuverlässigkeit der Inhalte zu schützen. Marshall Miller, Produktleiter bei der Wikimedia Foundation, beschreibt diese Reaktion als Anpassung an neue Herausforderungen im digitalen Raum. Die Community setzt dabei verstärkt auf die sogenannte „Schnelllöschung“ von Artikeln, die eindeutig von KI generiert wurden und nicht von einem menschlichen Bearbeiter überprüft wurden. Diese Regel ermöglicht es Administratoren, Artikel ohne die übliche sieben Tage lange Diskussionsphase zu löschen, sofern drei Kennzeichen vorliegen: mangelnde Quellenangaben, ungewöhnliche Formulierungen und fehlende menschliche Überprüfung. Wikipedia-Redakteure haben zudem ein umfangreiches Merkmal-Liste erstellt, um KI-Texte zu erkennen. Dazu gehören übermäßige Verwendung von Gedankenstrichen („—“), häufige Einsatz von Konjunktionen wie „außerdem“ oder „zudem“, promovierende Beschreibungen wie „atemberaubend“ sowie technische Fehler wie kursive Anführungszeichen oder Apostrophe. Dennoch betonen die Richtlinien, dass diese Merkmale allein nicht ausreichen, um einen Artikel zu löschen – sie dienen lediglich als Hinweise. Die Schnelllöschung gilt nicht nur für KI-Inhalte, sondern auch für Hasskommentare, Fakes, Vandalismus oder sinnloses Textmaterial. Die Wikimedia Foundation steht der KI-Entwicklung ambivalent gegenüber. Im Juni hatte sie ein Experiment gestoppt, bei dem KI-Übersichten an den Anfang von Artikeln gesetzt wurden, nachdem sich die Community dagegen gewehrt hatte. Dennoch ist die Organisation nicht grundsätzlich gegen KI, sondern sieht sie als Werkzeug, das bei richtiger Anwendung die Arbeit der Redakteure unterstützen kann. So nutzt die Stiftung KI bereits zur Erkennung von Vandalismus und plant, KI-Tools für repetitive Aufgaben wie Übersetzungen oder Formatierung zu entwickeln. Ein weiteres Projekt, das Tool Edit Check, soll neue Nutzer dabei unterstützen, die Richtlinien einzuhalten – etwa durch Erinnerungen zum Hinzufügen von Quellen oder zur Neutralität des Stils. In Zukunft könnte es auch eine „Paste Check“-Funktion erhalten, die fragt, ob ein eingefügter Text tatsächlich selbst verfasst wurde. Ein Nutzer schlägt vor, KI-Autoren sogar zu bitten, anzugeben, welcher Anteil ihres Textes von einem Chatbot erstellt wurde. Die Community bleibt aktiv und kritisch. Die meisten Redakteure sind sich einig: KI kann helfen, aber nur, wenn sie transparent und verantwortungsvoll eingesetzt wird. Die Wikimedia Foundation betont, dass ihre Strategie darauf abzielt, Menschen bei konstruktiven Beiträgen zu unterstützen und die Aufmerksamkeit bei der Überwachung von Änderungen zu schärfen. Die Zukunft von Wikipedia hängt damit nicht von der Verdrängung von KI ab, sondern von der Fähigkeit, sie sinnvoll in das kollektive Editier-Ökosystem zu integrieren.