Schwarzer Markt für AI-Trainingskonten gefährdet Datenqualität
In der schnell wachsenden Welt der Künstlichen Intelligenz hat sich ein schwarzer Markt für AI-Trainingskonten entwickelt. Unternehmen wie Scale AI, Surge AI und Mercor, die Hunderttausende von Freelancern weltweit beschäftigen, um Daten für KI-Modelle zu kennzeichnen, sind Ziel einer wachsenden Zahl von Betrügern. Business Insider entdeckte mindestens 100 Facebook-Gruppen, die Zugang zu echten oder gefälschten Trainingskonten anbieten – ein Verstoß gegen die Nutzungsbedingungen der Plattformen. Nachdem das Unternehmen die Angelegenheit gemeldet hatte, entfernte Meta etwa 40 Gruppen und Inhalte, bleibt aber weiterhin aktiv im Ermittlungsprozess. Die Unternehmen verbieten den Handel mit Konten strikt und setzen auf technische Sicherheitsmaßnahmen wie IP- und Verhaltensanalysen, um Betrug zu verhindern. Dennoch werden nach wie vor „verifizierte“ Konten für Plattformen wie Outlier oder DataAnnotation.tech über Facebook, WhatsApp und Telegram gehandelt. Die Arbeit ist oft hochentlohnend – bis zu 100 US-Dollar pro Stunde – und wird von sogenannten „Ghost Workers“ erledigt, die anonym und remote tätig sind. Doch mit dem Absinken der Projekte, insbesondere in Regionen wie Kenia, steigt der Druck, und Opportunisten nutzen die Lücke. Viele Kandidaten kaufen Konten von Menschen in Ländern mit aktiven Projekten, um an Aufgaben zu gelangen, die sie selbst nicht erreichen können. Dazu nutzen sie Tools wie VPNs oder „Shadow Proxies“, um ihre wahre geografische Position zu verbergen. In sozialen Medien gibt es sogar YouTube-Tutorials und Telegram-Gruppen, die Anleitungen zum Umgehen von Geobeschränkungen oder zum Bestehen von Onboarding-Tests anbieten. Doch der Markt ist riskant. Sowohl Käufer als auch Verkäufer laufen Gefahr, betrogen zu werden. Es gibt Berichte über verschwundene Zahlungen, falsche Anmeldeinformationen und abgefangene E-Mails, die vermeintlich von legitimen Unternehmen stammen. Zwei US-amerikanische ehemalige Contractor bestätigten, dass sie ständig Anfragen erhielten, ihre Konten zu verkaufen – mit einer Pauschalzahlung und einer Provision. Doch die Befürchtung, entdeckt zu werden, und die steuerliche Verantwortung für Einkünfte unter ihrem Namen halten viele davon ab, mitzuspielen. Interne Dokumente von Scale AI zeigen, dass das Unternehmen seit Jahren mit Betrug kämpft. In einer 2023 veröffentlichten Liste wurden 490 Konten wegen VPN-Nutzung, Mehrfachregistrierungen oder geringer Arbeitsqualität gesperrt. Ein Projekt mit Google war 2024 von massivem Missbrauch betroffen, weshalb die Firma Länder wie Kenia, Ägypten und Pakistan von bestimmten Aufgaben ausschloss. Auch Phishing-Versuche, bei denen Contractor aufgefordert werden, ihre Anmeldeinformationen preiszugeben, sind ein zunehmendes Problem. Sara Saab von Prolific beschreibt die Situation als eine „sich beschleunigende Waffengewalt“ zwischen KI-Plattformen und Betrügern. Die Technologien, die die Datenannotation ermöglichen, werden nun auch von Kriminellen missbraucht – ähnlich wie bei Ticket-Scalping oder Ride-Hailing-Betrug. Die Unternehmen müssen proaktiv handeln, um die Integrität ihrer Daten und die Vertrauenswürdigkeit ihrer Kunden zu schützen. Bewertung durch Branchenexperten: Die Entdeckung des schwarzen Marktes unterstreicht die strukturellen Schwächen in der KI-Entwicklung, die auf billige, globale Arbeitskräfte angewiesen ist. „Die fehlende Regulierung und die unzureichende Überwachung von Remote-Arbeitsplattformen schaffen ideale Bedingungen für Betrug“, sagt ein KI-Transparenz-Experte. Die Tatsache, dass große Investitionen – wie die 14 Milliarden Dollar von Meta an Scale AI – in ein System fließen, das von Betrug bedroht ist, wirft Fragen nach der langfristigen Nachhaltigkeit und Qualität der KI-Trainingsdaten auf. Für die Unternehmen bedeutet dies nicht nur finanzielle Risiken, sondern auch ein Image-Problem. Die Branche muss dringend stärkere Authentifizierungs- und Überwachungssysteme einführen, um die Integrität der KI-Entwicklung zu sichern.
