HyperAIHyperAI
Back to Headlines

Meta-Contractoren lesen persönliche Daten aus Chatbots – trotz Versprechen

vor 4 Tagen

Meta nutzt externe Vertragsmitarbeiter, um Gespräche zwischen Nutzern und ihren KI-Chatbots zu bewerten – und dabei können diese Mitarbeiter persönliche Daten wie Namen, E-Mail-Adressen, Telefonnummern, Standorte oder sogar Fotos sehen. Laut Berichten von Business Insider arbeiteten vier Vertragskräfte über Plattformen wie Outlier (eigentlich Scale AI) und Alignerr an Meta-Projekten, bei denen sie Tausende von echten Nutzer-Chats pro Woche analysierten. In mehr als der Hälfte dieser Gespräche fanden sie personenbezogene Informationen, die Identitätserkennung ermöglichten. Einige Nutzer teilten sogar Intimfotos oder vertrauliche Details über ihre Familien, Berufe oder Beziehungen mit der KI. In einem Projekt namens Omni wurden sogar explizite Inhalte und Selfies bearbeitet, was die Vertraulichkeit der Interaktionen besonders gefährdet. Meta begründet die Nutzung menschlicher Überprüfer mit der Verbesserung der KI-Performance: Die Gespräche dienen zur Bewertung der Antworten, um die KI menschlicher und natürlicher wirken zu lassen. In bestimmten Projekten, wie dem PQPE-Projekt, wurden sogar persönliche Fakten wie Name, Geschlecht, Hobbys oder Standort im Chatverlauf bereitgestellt, um die Personalisierung zu erhöhen. Hier durften die Vertragskräfte die Daten nicht ablehnen – obwohl sie die Identität eines Nutzers rekonstruieren konnten. Ein Fall, bei dem ein Chat mit expliziten Inhalten analysiert wurde, ließ sich innerhalb von fünf Minuten über eine Facebook-Profile-Suche mit einem realen Nutzer verknüpfen. Meta betont, dass es „strenges Richtlinien“ für den Zugriff auf personenbezogene Daten gibt und dass Vertragsmitarbeiter geschult werden, solche Daten zu melden oder zu ignorieren. Scale AI und Alignerr bestätigten, dass Mitarbeiter nur so viel Daten verarbeiten dürfen, wie für die Aufgabe notwendig ist, und dass sie auf verdächtige Inhalte achten sollen. Dennoch zeigte sich, dass die Systeme nicht fehlerfrei funktionieren – selbst wenn automatisierte Filter vorhanden sind, können menschliche Prüfer die Lücken füllen, aber auch Missbrauch ermöglichen. Experten wie Miranda Bogen vom Center for Democracy and Technology warnen vor der Illusion der Privatsphäre bei KI-Chats. „Man sollte niemals annehmen, dass KI-Chats privat sind“, sagt sie, besonders da Nutzer oft vertrauliche oder emotionale Inhalte teilen, als würden sie mit einem Therapeuten sprechen. Die Tatsache, dass Menschen persönliche Daten ohne Wissen an KI übermitteln, während diese von Menschen gelesen werden, stellt ein erhebliches Risiko für Manipulation, Betrug oder Identitätsdiebstahl dar. Auch andere Tech-Riesen wie OpenAI und Google nutzen ähnliche Praktiken. Letztes Jahr wurde bekannt, dass ChatGPT-Chats von Google indexiert wurden – eine Funktion, die OpenAI später wieder entfernte. Meta hingegen hat zwar eine Warnung eingefügt, erlaubt aber weiterhin das Teilen von Chats, die in Suchmaschinen auftauchen können. Insgesamt offenbart die Berichterstattung, dass die Datenschutzpraktiken in der KI-Entwicklung noch unzureichend sind. Obwohl Technologien wie Datenminimierung, Redaktion und Benutzerkontrolle theoretisch existieren, werden sie oft unvollständig oder inkonsistent umgesetzt. Die Vertrauenskrise wächst – besonders, wenn Nutzer glauben, mit einer KI über intime Themen sprechen zu können, ohne dass jemand sonst davon erfährt.

Related Links

Meta-Contractoren lesen persönliche Daten aus Chatbots – trotz Versprechen | Schlagzeilen | HyperAI