Des contracteurs ont lu vos conversations privées avec l’IA de Meta, y compris vos données personnelles
Des travailleurs indépendants ont accès à des données personnelles lors de la lecture de conversations utilisateurs avec l’IA de Meta, selon des informations révélées par Business Insider. Comme de nombreuses entreprises technologiques, Meta utilise des sous-traitants pour améliorer ses modèles d’intelligence artificielle en analysant des échanges réels entre utilisateurs et ses chatbots. Ces contractuels, recrutés via des plateformes comme Outlier (filiale de Scale AI) et Alignerr, examinent les réponses de l’IA afin d’évaluer leur qualité, une pratique courante dans le développement des systèmes d’IA. Toutefois, certains d’entre eux ont rapporté avoir régulièrement vu des informations personnelles sensibles, telles que des noms complets, adresses e-mail, numéros de téléphone, genres, centres d’intérêt, et même des photos, y compris des selfies ou des images explicites. Un contractuel a estimé que plus de la moitié des milliers de conversations qu’il a traitées par semaine contenaient des données identifiables. Les documents des projets Meta examinés révèlent que certaines informations personnelles sont fournies aux contractuels pour aider à personnaliser les réponses de l’IA. Dans certains cas, ces données proviennent du profil social de l’utilisateur, dans d’autres, elles sont fournies par l’utilisateur lui-même dans le cadre de la conversation. Meta prévient ses utilisateurs dans ses conditions d’utilisation qu’ils ne devraient pas partager d’informations personnelles, mais des utilisateurs du monde entier, notamment aux États-Unis et en Inde, ont néanmoins partagé des détails intimes. Les conversations observées par les contractuels ont souvent pris un ton très personnel : des séances de thérapie virtuelle, des échanges amoureux, des confidences sur la vie privée ou des problèmes professionnels. Un projet appelé Omni, géré par Alignerr, visait à améliorer l’engagement sur l’IA de Meta, mais a exposé les contractuels à des contenus extrêmement sensibles. Un autre projet, PQPE, basé sur Outlier, avait pour objectif de rendre les conversations plus personnalisées en intégrant des données comme le prénom, le lieu ou les centres d’intérêt. Dans ce cadre, les contractuels n’avaient pas le droit de rejeter les conversations contenant des données personnelles, car celles-ci étaient jugées nécessaires au bon fonctionnement du projet. Meta affirme avoir des « politiques strictes » pour limiter l’accès aux données personnelles, même pour les sous-traitants, et affirme que tous les contractuels passent des évaluations de sécurité et de gestion des risques. Scale AI précise que les contributeurs ne peuvent traiter les données que si nécessaire, et doivent signaler tout contenu contenant des informations personnelles. Toutefois, des experts comme Miranda Bogen, directrice du AI Governance Lab au Center for Democracy and Technology, soulignent que ces systèmes sont imparfaits. Elle prévient que les utilisateurs ne doivent jamais supposer que leurs échanges avec les chatbots sont privés, surtout lorsque les conversations peuvent ressembler à des thérapies ou à des confidences. Des cas ont été documentés où des utilisateurs ont accidentellement rendu publics leurs échanges, notamment sur un fil d’actualité public dans l’application Meta AI. Dans un exemple, Business Insider a pu identifier un profil Facebook correspondant à une conversation contenant des données personnelles, en moins de cinq minutes. Cette situation soulève des inquiétudes quant à la protection des données, notamment dans un contexte où Meta vise une « superintelligence personnelle » capable de comprendre profondément ses utilisateurs. Malgré les processus de détection automatisée et les instructions aux humains pour signaler les données sensibles, les experts estiment que les pratiques actuelles ne garantissent pas une protection adéquate. La minimisation des données, leur anonymisation et le contrôle des utilisateurs restent inégalement appliqués dans l’industrie, selon Sara Marcucci, fondatrice de l’AI + Planetary Justice Alliance. L’ensemble de ces faits met en lumière un paradoxe : alors que les IA deviennent plus intimes, la protection des données personnelles reste insuffisante.