Tech-Konzerne ignorieren, dass Schüler:innen ihre AI-Agenten zum Betrug nutzen
Kinder und Jugendliche nutzen künstliche Intelligenz (KI) zunehmend, um Hausaufgaben zu erledigen – und Tech-Unternehmen reagieren mit einer Mischung aus strategischer Toleranz und gezielter Werbung. OpenAI warb mit Gratis-Zugang zu ChatGPT Plus für Studierende, Google und Perplexity bieten kostspielige KI-Tools kostenlos an, und Perplexity zahlt sogar 20 Dollar an Nutzer, die neue Schüler:innen für seinen AI-Browser Comet werben. Die Popularität solcher Tools unter Teenagern ist enorm. Mit der Einführung von KI-Agenten, die komplexe Aufgaben autonom erledigen können – wie Online-Tests absolvieren oder sich als Schüler:in ausgeben – eskaliert die Situation. Die Verwendung solcher Agenten zur Prüfungscheat ist nicht nur möglich, sondern wird von den Unternehmen oft sogar indirekt gefördert: Perplexity veröffentlichte Werbevideos, in denen gezeigt wird, wie ein „Student“ mit Hilfe von Comet Aufgaben löst, und reagierte auf ein virales Video, in dem ein KI-Agent echte Hausaufgaben erledigte, mit einem ironischen „Absolut nicht tun“. Ein Sprecher betont, dass jedes Lernwerkzeug seit dem Abakus missbraucht wurde – ein Argument, das die Verantwortung auf die Nutzer schiebt. Auch Instructure, Betreiber der Lernplattform Canvas, steht im Fokus. Der IT-Designer Yun Moh demonstrierte, wie ein KI-Agent sich als Student ausgab, um eine Aufgabe zu erledigen. Er bat Instructure, solche Agenten zu blockieren, erhielt aber nur eine verweichlichte Antwort: Die Fähigkeit, KI-Agenten zu unterbinden, sei technisch nicht realisierbar, da sie auf lokalen Geräten laufen. Instructure lehnt es ab, „die Werkzeuge zu polizeilich“ zu überwachen, und setzt stattdessen auf eine „zusammenarbeitende Entwicklung“ verantwortungsvollen KI-Gebrauchs. Gleichzeitig erlaubt das Unternehmen, wie der Fall mit Googles „Homework Help“-Button in Chrome zeigt, die Nutzung von KI-Tools, die es Schülern erleichtern, Fragen per Bildsuche zu lösen. Obwohl Lehrkräfte davor warnten, wurde der Test nur vorübergehend ausgesetzt – die Option bleibt offen. Die Kritik an der fehlenden Verantwortung der Tech-Unternehmen wächst. Die Modern Language Association fordert, dass Bildungseinrichtungen Kontrolle über KI-Tools in Klassenzimmern erhalten sollen. OpenAI reagiert mit Maßnahmen wie „Study Mode“ in ChatGPT, der keine direkten Antworten gibt, und betont, dass KI kein „Antwort-Maschine“ sein soll. Doch solche Bemühungen kommen zu spät: Produkte werden bereits in Schulen eingesetzt, lange bevor ethische Leitlinien existieren. Letztlich bleibt es den Lehrkräften überlassen, die Konsequenzen zu tragen – mit ungenügendem technischen Rüstzeug und fehlendem Support. Die KI-Industrie setzt auf die Zukunft, ohne die Gegenwart der Bildungssysteme zu schützen. Die Verantwortung für die Auswirkungen der Technologie wird an diejenigen abgewälzt, die am wenigsten Macht haben.
