Facebook utilise l'IA Meta sur vos photos non partagées
Depuis des années, Meta utilise les milliards d'images publiées par les utilisateurs sur Facebook et Instagram pour entraîner ses programmes d'IA. Cependant, la compagnie a récemment fait un pas de plus en proposant aux utilisateurs de Facebook d'autoriser l'accès à leurs photos non publiées, stockées dans leur rouleau de caméra. Cette nouvelle fonctionnalité, appelée « cloud processing », a été signalée par TechCrunch le vendredi dernier. Lorsqu'un utilisateur tente de créer une nouvelle Story, un message pop-up apparaît, demandant s'il souhaite activer cette option. Si l'utilisateur clique sur « Allow », Facebook peut sélectionner des médias de son rouleau de caméra et les télécharger régulièrement sur ses serveurs pour générer des idées créatives comme des collages, des récapitulatifs, des restylages par IA, ou des thèmes liés à des événements spécifiques comme des anniversaires ou des graduations. Cette démarche soulève plusieurs questions concernant la confidentialité et la transparence. En activant « cloud processing », les utilisateurs acceptent que Meta analyse non seulement leurs médias mais aussi les caractéristiques faciales de ces images, ainsi que la date à laquelle elles ont été prises et la présence d'autres personnes ou objets. Les termes d'utilisation de l'IA de Meta, en vigueur depuis le 23 juin 2024, permettent également à la compagnie de conserver et d'utiliser ces informations personnelles. Meta n'a pas encore clarifié si les photos non publiées collectées via « cloud processing » sont exemptées de l'utilisation comme données d'entraînement pour ses modèles d'IA. En revanche, Google affirme clairement ne pas utiliser les données personnelles de Google Photos pour entraîner ses modèles d'IA génératifs. Cette différence dans la politique de gestion des données personnels met en lumière la stratégie de Meta qui semble chercher à maximiser l'accès aux données pour l'entraînement de ses algorithmes. Les utilisateurs de Facebook ont toutefois la possibilité de désactiver le partage du rouleau de caméra dans les paramètres de l'application. Une fois désactivé, les photos non publiées sont supprimées du cloud après 30 jours. Les implications de cette nouvelle fonctionnalité sont multiples. Elle représente une intrusion supplémentaire dans les données personnelles, en contournant le processus conscient de publication d'une photo. Les utilisateurs ne sont pas toujours conscients des termes auxquels ils s'engagent lorsqu'ils activent ces fonctionnalités. Par exemple, un utilisateur Reddit a découvert que Facebook avait transformé ses photos de mariage en style Studio Ghibli sans son consentement explicite. Un autre utilisateur, membre d'un groupe anti-IA sur Facebook, a dû rechercher des instructions pour désactiver cette fonctionnalité, ce qui a conduit à la section des paramètres de partage du rouleau de caméra. Le rouleau de caméra est un réservoir de données potentiellement précieux pour Meta. La capacité de l'IA à analyser et à restyler des photos non publiées pourrait donner à la compagnie un avantage significatif dans la course à l'IA. Cependant, cette pratique soulève des inquiétudes quant à la manière dont les données personnelles sont utilisées et gérées. Les termes d'utilisation de l'IA de Meta indiquent que la compagnie peut analyser les images, y compris les caractéristiques faciales, pour offrir des fonctionnalités innovantes. Ces termes autorisent également Meta à conserver et à utiliser toute information personnelle partagée pour personnaliser les sorties de l'IA. Le terme « information personnelle » n'est pas clairement défini, se limitant à « les informations que vous soumettez sous forme de Prompts, Feedback, ou autres Contenus ». Meta a confirmé qu'elle a collecté et utilisé toutes les données publiées sur Facebook et Instagram depuis 2007 pour entraîner ses modèles d'IA. Bien que la compagnie affirme n'avoir utilisé que des publications publiques d'utilisateurs adultes âgés de plus de 18 ans, elle a été peu claire sur ce qui constitue exactement une publication publique et ce qu'est un utilisateur adulte en 2007. Les utilisateurs de l'Union Européenne avaient jusqu'au 27 mai 2025 pour opter hors de cette utilisation de leurs données. Jusqu'à présent, la réaction des utilisateurs à cette fonctionnalité a été relativement limitée. Certains utilisateurs ont exprimé des inquiétudes et cherché des moyens de désactiver l'option, tandis que d'autres n'ont pas encore remarqué sa présence. Les posts sur Reddit et les discussions dans des groupes anti-IA montrent que certains utilisateurs sont déconcertés par les suggestions d'IA générées à partir de leurs vieilles photos, même celles qui n'ont pas été explicitement partagées avec cette fonctionnalité. Cette initiative de Meta souligne la tension croissante entre l'innovation technologique et la protection des données personnelles. Alors que les grandes entreprises technologiques poursuivent leurs ambitions en matière d'IA, elles peuvent parfois négliger la transparence et l'informed consent des utilisateurs. Dans ce contexte, il est crucial que Meta clarifie ses pratiques et garantisse que les utilisateurs comprennent pleinement les termes auxquels ils s'engagent. Les experts et les commentateurs de l'industrie soulignent que la collecte et l'analyse des données non publiées par l'IA posent des risques importants en termes de confidentialité. Les compagnies comme Meta doivent équilibrer leurs efforts pour innover avec des mesures robustes de protection des données. La réaction globale reste mitigée, mais il est évident que de telles pratiques nécessitent une vigilance accrue de la part des consommateurs et des régulateurs.