Meta Automatisera les Évaluations de Risques de ses Produits avec un Système IA
Meta envisage de confier au système d'intelligence artificielle (IA) l'évaluation des risques potentiels et des menaces pour la vie privée liées aux mises à jour de ses applications, notamment Instagram et WhatsApp, selon des documents internes examinés par NPR. Un accord de 2012 entre Facebook, rebaptisée Meta, et la Commission fédérale du commerce (FTC) exigeait que l'entreprise réalise des audits de confidentialité de ses produits en évaluant les risques associés à toute mise à jour. Jusqu'à présent, ces audits ont principalement été effectués par des évaluateurs humains. La nouvelle approche, basée sur l'IA, prévoit que les équipes de produit remplissent un questionnaire détaillant leurs modifications. Ensuite, un décision instantanée est généralement rendue, accompagnée des risques identifiés par l'IA et des exigences que la mise à jour ou la fonction doit respecter avant sa mise en production. Selon Meta, ce système pourrait automatiser l'évaluation deUntil jusqu'à 90% des mises à jour, ce qui permettrait une mise à jour plus rapide des applications. Toutefois, cette transition vers l'automatisation soulève des inquiétudes. Un ancien cadre de l'entreprise a confié à NPR que cette méthode augmentait les "risques" car "les effets négatifs des changements de produit sont moins susceptibles d'être anticipés et empêchés avant qu'ils ne provoquent des problèmes." Cet avis met en lumière les potentiels dangers d'une trop grande dépendance à l'IA pour gérer des aspects critiques de la sécurité et de la privauté des utilisateurs. Dans un communiqué, Meta a reconnu être en cours de modification de son processus d'audit. La société a toutefois souligné que seules les "décisions à faible risque" seraient automatisées, tandis que les équipes humaines continueraient à examiner les questions "nouvelles et complexes". Cette nuance vise à rassurer sur la préservation d'un niveau élevé de surveillance et de contrôle humain dans les processus de prise de décision les plus délicats. La stratégie de Meta de combiner IA et intervention humaine représente une tentative équilibrée d'accélérer le développement tout en maintenant des standards rigoureux en matière de sécurité et de confidentialité. L'introduction de cette nouvelle méthode d'évaluation pourrait réduire le temps nécessaire pour évaluer les mises à jour simples, libérant ainsi du temps pour les évaluations plus pointues nécessitant une expertise humaine spécialisée. Cependant, il reste essentiel que Meta continue de veiller à ce que l'automatisation ne compromette pas la protection des utilisateurs contre les menaces potentielles.