HyperAI
Back to Headlines

Fuite de Documents Google Publies de Scale AI Révèle des Failles de Sécurité dans des Projets d'IA pour Google, Meta et xAI

il y a 7 jours

Résumé : Des Documents Publics de Scale AI Révèlent des Failles Sécuritaires dans les Projets d'IA Contexte et Contextualisation Scale AI, une entreprise spécialisée dans le développement et la formation d'intelligences artificielles, a récemment reçu un investissement de 14,3 milliards de dollars de Meta, une somme colossale qui a propulsé la startup sous les projecteurs. Malgré cet appui financier majeur, une enquête menée par Business Insider (BI) soulève des questions sérieuses concernant les pratiques de sécurité de l'entreprise. Des Pratiques de Gestion Inconsistantes Utilisation de Documents Google Publics L'enquête a révélé que Scale AI utilise activement des documents Google publics pour suivre le travail réalisé pour des clients prestigieux comme Google, Meta, et xAI. Ces documents, souvent étiquetés "confidentiels," sont accessibles à quiconque possède le lien, créant des risques évidents de violation de données et de confidentialité. L'accès non sécurisé à ces documents compromet non seulement les informations sensibles des clients mais également celles des 240 000 contractors de l'entreprise. Contenu Sensible Exposé Parmi les documents accessibles, BI a trouvé des centaines de pages concernant des projets spécifiques. Par exemple, des documents détaillent comment Google a utilisé ChatGPT pour améliorer son chatbot Bard, qui présentait des difficultés à répondre à des questions complexes. Pour xAI, l'entreprise d'Elon Musk, des documents publics ont révélé des détails sur "Project Xylophone," incluant des instructions pour améliorer la conversation de l'IA sur divers sujets, allant des apocalypses zombies à la plomberie. Des documents confidentiels de Meta, quant à eux, sont accessibles pour améliorer l'expressivité et la gestion des sujets sensibles de leurs chatbots. Identité des Clients et Anonymisation Faille Les contractors interrogés par BI ont affirmé qu'il était relativement simple d'identifier les clients, même lorsque les projets étaient codés. Certains documents contenaient même le logo de Google, et les instructions étaient souvent si caractéristiques qu'on pouvait deviner le client juste en regardant la tâche ou la manière dont elle était formulée. Cette facilité de reconnaissance souligne une absence de véritable anonymisation, mettant en péril la confidentialité que les clients attendent. Informations Sensibles des Contractors Exposées Accès Non Contrôlé Des spreadsheets laissés publics contenaient des détails personnels sur des milliers de contractors, y compris leurs noms et adresses email privées. Un document intitulé "Good and Bad Folks" classe les travailleurs en fonction de leur qualité de travail et soupçonne certains de "tricher." D'autres feuilles listent des adresses email de personnes suspectées de comportements suspects. Des documents décrivant les paiements et résolvant des différends financiers ont également été découverts, sans aucune protection d'accès. Rétroactions et Performances Des feuilles de calcul détaillées exposaient non seulement les performances individuelles des contractors mais également les sommes qu'ils avaient reçues et des notes sur des différends et des disparités de paiements. Cela souligne un manque de respect de la vie privée et potentiellement des conditions de travail précaires. Réactions et Conséquences Évaluations des Experts Deux experts en cybersécurité interrogés par BI ont souligné les risques potentiels de ces pratiques. Joseph Steinberg, enseignant à l'Université de Columbia, a décrit la situation comme "dangerously" en raison des opportunités de social engineering, où les hackers peuvent usurper l'identité de contractors pour obtenir des accès. Stephanie Kurtz, directrice régionale de Trace3, a ajouté que l'accessibilité des documents à la modification par n'importe qui pourrait permettre l' insertion de liens malveillants, augmentant ainsi les risques de cyberattaque. Ralentissement des Projets Suite à l'exposition de ces failles, des entreprises comme Google, OpenAI, et xAI ont suspendu leur collaboration avec Scale AI. L'entreprise a tenté de rassurer ses clients par un billet de blog affirmant sa neutralité, son indépendance, et ses hauts standards de sécurité. Cependant, les découvertes de BI remettent en question la fiabilité de ces affirmations et la possibilité que Meta ait été informée de ces problèmes avant son investissement colossal. Répondre aux Préoccupations Déclaration Officielle de Scale AI Un porte-parole de Scale AI a affirmé que l'entreprise prenait l'incident très au sérieux et qu'elle menait une enquête approfondie. Elle a désactivé la possibilité de partager publiquement des documents à partir de ses systèmes gérés et s'est engagée à renforcer ses pratiques de sécurité technique et politique. De telles mesures sont cruciales pour restaurer la confiance des clients et atténuer les risques futurs de fuite de données. Positionnement de Meta et des Autres Clients Meta, le principal investisseur, n'a pas commenté la situation, tandis que Google et xAI n'ont pas non plus répondu aux sollicitations de BI. Cette absence de réaction ajoute de la perplexité quant à la gravité accordée à ces préoccupations par les grandes technologies. Analyse et Projet d'Avenir La révélation de ces failles de sécurité met en lumière les défis auxquels sont confrontés les startups hypercroissance, qui doivent souvent équilibrer l'efficacité opérationnelle et la sécurité des données. Scale AI est loin d'être un cas isolé, mais son importance et la nature sensible de ses projets rendent cette affaire particulièrement préoccupante. Pour les professionnels de l'industrie, cette situation rappelle l'importance de mettre en place des mécanismes de sécurité robustes dès le début, même au détriment de la rapidité d'exécution. Les startups ne devraient pas négliger les fondamentaux de la cybersécurité, notamment la gestion rigoureuse des accès et l'usage d'outils de collaboration sécurisés. Profil de l'Entreprise SCALE AI a été fondée par Alexandr Wang et est reconnue pour sa capacité à fournir des services de formation d'IA de pointe à des clients de premier plan. Cependant, ce scandale de sécurité pourrait nuire à sa réputation et à sa capacité à maintenir des partenariats importants, notamment avec des géants de la technologie qui exigent une haute sécurité. En conclusion, la mise en lumière de ces failles de sécurité par BI est un coup dur pour Scale AI, soulignant l'urgence de renforcer les mesures de protection et redonnant de l'importance aux principes de base de la cybersécurité dans les environments de travail collaboratif.

Related Links