Scale AI: Sicherheitslücken trotz Milliardeninvestition von Meta
Scale AI, ein führendes Unternehmen im Bereich künstlicher Intelligenz (KI), steht unter Beschuss, nachdem es durch vertrauliche Dokumente und Interviews mit eigenen Vertragsmitarbeitern ans Licht kam, dass es erhebliche Sicherheitslücken in seinen Projekten aufweist. Dies geschah zu einem Zeitpunkt, als das Unternehmen gerade dabei war, seine Kunden davon zu überzeugen, dass ihre Daten sicher sind, nachdem Meta 14,3 Milliarden Dollar investiert hatte. Alexandr Wang, Mitgründer von Scale AI, der sich nach der Investition von Meta angeschlossen hat, versuchte das Vertrauen der Kunden wiederherzustellen. Scale AI arbeitet für renommierte Unternehmen wie Google, Meta und xAI. Business Insider fand jedoch heraus, dass das Unternehmen regelmäßig öffentliche Google Docs verwendet, um Arbeit für wichtige Kunden zu verfolgen. Diese Dokumente, die als "vertraulich" gekennzeichnet waren, waren für jeden zugänglich, der den Link kannte. Die Vertragsmitarbeiter berichteten, dass die Firma auf diese Weise interne Dateien teilt, was zwar effizient für sein riesiges Netzwerk von mindestens 240.000 Vertragsmitarbeitern ist, aber auch offensichtliche Cyber-Sicherheits- und Vertraulichkeitsrisiken darstellt. Einige der öffentlich zugänglichen Google-Docs beinhalteten sensible Details über Tausende von Vertragsmitarbeitern, einschließlich ihrer privaten E-Mail-Adressen und ob sie verdächtigt wurden, bei Aufgaben "zu betrügen". Einige dieser Dokumente konnten nicht nur angesehen, sondern auch von jedem mit dem richtigen URL bearbeitet werden, der darauf zugreifen konnte. Es gibt jedoch keinen Hinweis darauf, dass Scale AI aufgrund dieser Praktiken bereits gehackt wurde. Zwei Cyber-Sicherheitsexperten sagten Business Insider, dass solche Methoden das Unternehmen und seine Kunden verschiedenen Arten von Angriffen aussetzen könnten, wie etwa Hackern, die sich als Vertragsmitarbeiter ausgeben oder Malware in zugängliche Dateien hochladen. In den vertraulichen Projektdokumenten, die Business Insider überprüfen konnte, wurden beispielsweise detaillierte Informationen darüber gefunden, wie Google den Chatbot ChatGPT nutzte, um seinen eigenen schwachen Chatbot, damals noch als Bard bekannt, zu verbessern. Scale AI hinterließ zudem mindestens sieben von Google als "vertraulich" gekennzeichnete Anleitungsmanuale öffentlich zugänglich, in denen beschrieben wurde, was Google an Bard falsch fand und wie Scale-Mitarbeiter diese Probleme beheben sollten. Für Elon Musks xAI, für das Scale AI bis April mindestens 10 generative KI-Projekte betrieb, zeigten öffentliche Google-Dokumente und -Tabellen Details zu "Projekt Xylophone". Diese Dokumente enthielten Trainingsanleitungen und eine Liste von 700 Gesprächsaufgaben, die darauf abzielten, die Konversationsfähigkeiten der KI in verschiedenen Themenbereichen zu verbessern, von Zombie-Apokalysen bis hin zu Installateurfragen. Auch Meta ließ vertrauliche Trainingsdokumente, die am Anfang als "vertraulich" gekennzeichnet waren, öffentlich zugänglich. Diese enthielten Links zu Audio-Dateien, die Beispiele für "gute" und "schlechte" Sprachaufforderungen boten, was die Standards von Meta für die Ausdrucksfähigkeit seiner KI-Produkte aufzeigte. Einige Projekte konzentrierten sich darauf, Metas Chatbots konversationeller und emotionaler zu machen, während gleichzeitig sichergestellt wurde, dass sie sensible Themen sicher behandeln. Trotz der Versuche, die Kunden zu kodieren, konnten viele Vertragsmitarbeiter dennoch leicht erkennen, für welchen Kunden sie arbeiteten, oft einfach anhand der Art der Aufgabe oder der Formulierung der Anweisungen. Einige Dokumente enthielten sogar das Logo von Google, was die Identifizierung weiter erleichterte. Darüber hinaus enthüllten andere Google-Docs sensible persönliche Informationen über die Vertragsmitarbeiter von Scale AI. Business Insider prüfte Tabellen, die nicht gesperrt waren und die Namen und private Gmail-Adressen von Tausenden von Arbeitnehmern auflisteten. Mehrere kontaktierte Mitarbeiter äußerten ihre Überraschung, dass ihre persönlichen Daten für jeden mit dem entsprechenden URL zugänglich waren. Viele Dokumente enthielten auch Details zur Arbeitsleistung der Mitarbeiter. Eine Tabelle mit dem Titel "Gute und schlechte Leute" klassifizierte Dutzende von Arbeitnehmern als "hochwertig" oder verdächtig, "zu betrügen". Eine weitere Liste von Hunderten privaten E-Mail-Adressen trug den Titel "alle betrügerischen Tasker verschieben", die Mitarbeiter aufgrund von "verdächtigem Verhalten" markierte. Ein weiteres Blatt nannte fast 1.000 Vertragsmitarbeiter, die "falsch gesperrt" wurden. Das System schien "unglaublich wackelig" zu sein, sagte ein Arbeiter. Fünf aktuelle und ehemalige Scale AI-Vertragsmitarbeiter, die an verschiedenen Projekten gearbeitet haben, berichteten Business Insider, dass der Einsatz öffentlicher Google-Docs weit verbreitet im Unternehmen war. Sie betonten, dass dies die Operationen für Scale AI, das hauptsächlich auf freiberufliche Beitragende angewiesen ist, effizienter gestaltet. Der Managementprozess für individuelle Zugangsberechtigungen für jeden Vertragsmitarbeiter würde den Prozess erheblich verlangsamen. Gleichzeitig mussten viele Dokumente, die Informationen zum Training von KI-Modellen enthielten, ohne Verifizierung über öffentliche Links oder Links in anderen Dokumenten angezeigt werden. Cyber-Sicherheitsexperten wie Joseph Steinberg, Dozent für Cyber-Sicherheit an der Columbia University, warnten vor den Risiken, die mit der Verwendung öffentlicher Google-Docs verbunden sind. „Natürlich ist es gefährlich. Im besten Fall ermöglicht es nur soziale Engineering-Angriffe," sagte er. Soziales Engineering bezieht sich auf Angriffe, bei denen Hacker Mitarbeiter oder Vertragsmitarbeiter dazu bringen, ihnen Zugang zu geben, indem sie sich als jemand innerhalb des Unternehmens ausgeben. Das freigeben sensibler Informationen über Tausende von Mitarbeitern bietet viele Möglichkeiten für solche Angriffe, fügte Steinberg hinzu. Stephanie Kurtz, Regionaldirektorin bei der Cyber-Firma Trace3, betonte, dass Unternehmen mit der Verwaltung des Zugangs über Einladungen beginnen sollten. "Es einfach freizulegen und darauf zu hoffen, dass niemand einen Link teilt, ist keine gute Strategie," sagte sie. Kurtz fügte hinzu, dass das Bearbeiten öffentlich zugänglicher Dokumente von jedem Risiken birgt, wie das Einfügen bösartiger Links, die andere dazu bringen könnten, sie zu öffnen. Scale AI hat in einer Stellungnahme an Business Insider beteuert, dass es die Daten-Sicherheit ernst nimmt und die Angelegenheit untersucht. Die Sprecherin des Unternehmens sagte: "Wir führen eine gründliche Untersuchung durch und haben die Möglichkeit deaktiviert, dass Nutzer Dokumente aus Scale-gesteuerten Systemen öffentlich teilen. Wir sind weiterhin verpflichtet, robuste technische und politische Schutzmaßnahmen zu gewährleisten, um vertrauliche Informationen zu schützen, und arbeiten ständig daran, unsere Praktiken zu stärken." Meta lehnte es ab, dazu Stellung zu nehmen. Google und xAI reagierten nicht auf Anfragen. Nach der Investmentnachricht von Meta pausierte Scale AI Kunden wie Google, OpenAI und xAI die Zusammenarbeit. In einem Blog-Beitrag letzte Woche versicherte Scale AI, dass es ein neutraler und unabhängiger Partner bleibt und strenge Sicherheitsstandards einhält. Die Enthüllungen von Business Insider werfen Fragen auf, ob Scale AI genug getan hat, um die Sicherheit seiner Kunden zu gewährleisten, und ob Meta von den Sicherheitslücken wusste, bevor es das große Investment tätigte. Die Praxis, interne Arbeit über öffentliche Google-Docs zu organisieren, kann signifikante Cyber-Sicherheitsrisiken schaffen, insbesondere wenn sensible Informationen leicht zugänglich sind. Gleichzeitig zeigt dies, dass Start-ups, die stark auf Wachstum ausgerichtet sind, oft Schwierigkeiten haben, Sicherheitsmaßnahmen angemessen zu implementieren, da dies den Prozess verlangsamen kann. Zusammenfassend lässt sich sagen, dass Scale AI, trotz seiner Versuche, das Vertrauen seiner Kunden zurückzugewinnen, erhebliche Sicherheitsprobleme aufweist, die die Reputation des Unternehmens und die Sicherheit seiner Kundenprojekte gefährden können. Die Reaktionen von Branchenexperten und die Maßnahmen, die das Unternehmen nun ergreift, zeigen, wie wichtig es ist, Sicherheit von Anfang an zu priorisieren, insbesondere in einem Sektor, der so stark von vertraulichen Daten abhängt wie der KI-Branche.