Meta pausiert Zusammenarbeit mit Mercor nach Sicherheitsvorfall bei KI-Trainingsdaten weckt Brancheninteresse
Laut Informanten gegenüber Medien hat der Technologie-Gigant Meta die Zusammenarbeit mit dem KI-Trainings-Start-up Mercor ausgesetzt und eine Untersuchung wegen eines kürzlich eingetretenen Datenleck bei letzterem eingeleitet. Dieser Schritt unterstreicht, dass im Kontext des raschen Fortschritts großer Sprachmodelle die Sicherheit in der KI-Datenlieferkette zunehmend zum Branchenfokus wird. Seit ihrer Gründung konzentriert sich Mercor auf die Unterstützung von Großunternehmen beim Training von KI-Modellen, indem es zahlreiche menschliche Annotatoren und Fachexperten organisiert, um hochwertige Trainingsdaten für Modelle bereitzustellen. Im Rahmen einer Finanzierungsrunde im Oktober letzten Jahres wurde das Unternehmen bereits auf 10 Milliarden US-Dollar bewertet und Partnerschaften mit mehreren Technologiefirmen, darunter auch Meta, geschlossen. Der Wendepunkt des Vorfalls ergab sich jedoch durch einen Angriff auf die Lieferkette. Mercor bestätigte, dass sein Unternehmen kürzlich ein Sicherheitsproblem im Zusammenhang mit dem Open-Source-Projekt LiteLLM erlebt habe. Der Angriffsvektor war weitreichend; laut Angaben von Mercor handelt es sich lediglich „um eines von Tausenden betroffenen Unternehmen". In seiner offiziellen Erklärung betonte Mercor, dass Datenschutz und -sicherheit fundamentale Grundlagen seines Betriebs seien. Das Unternehmen teilte mit, dass sein Sicherheitsteam nach Entdeckung des Problems umgehend Maßnahmen zur Eindämmung und Behebung ergriffen sowie eine umfassende Untersuchung eingeleitet habe. Zudem holte Mercor externe Forensik-Spezialisten hinzu, um den Umfang der Auswirkungen und potenzielle Risiken zu bewerten. Bisher hat Meta noch keine öffentliche Stellungnahme zu diesem Fall abgegeben. Die Aussetzung der Zusammenarbeit gilt jedoch als Teil vorsorglicher Risikosteuerung und spiegelt die hohe Sensibilität führender Tech-Konzerne hinsichtlich Datensicherheitsfragen wider. Brancheninformatiker weisen darauf hin, dass datenorientierte Dienstleister wie Mercor angesichts der zunehmenden Abhängigkeit von KI-Modellen von hochwertigen Daten zu kritischen Infrastrukturelementen werden. Ein Schwachpunkt in der Lieferkette kann nicht nur die Qualität des Modelltrainings beeinträchtigen, sondern auch Compliance-Risiken im Bereich des Datenschutzes sowie allgemeine Sicherheitsgefahren hervorrufen. Dieses Ereignis dürfte dazu führen, dass Technologieunternehmen ihre Prüfungen von KI-Outsourcern und Datendienstleistern weiter verschärfen.
