Command Palette
Search for a command to run...
Réinterroger le masquage de portrait en préservant la vie privée
Réinterroger le masquage de portrait en préservant la vie privée
Sihan Ma Jizhizi Li Jing Zhang He Zhang Dacheng Tao
Résumé
Récemment, une préoccupation croissante s’est manifestée concernant les questions de confidentialité liées aux informations identifiables dans les systèmes d’apprentissage automatique. Toutefois, les méthodes précédentes de matting de portraits étaient toutes fondées sur des images identifiables. Pour combler cette lacune, nous proposons P3M-10k, le premier grand jeu de données anonymisé dédié au matting de portraits préservant la vie privée (P3M). P3M-10k comprend 10 421 images haute résolution de portraits floutés au niveau du visage, accompagnées de masques alpha de haute qualité, permettant une évaluation systématique à la fois des méthodes de matting sans trimap et des méthodes basées sur le trimap, ainsi que l’obtention de résultats utiles sur la capacité de généralisation des modèles dans un cadre d’entraînement préservant la vie privée (PPT). Nous introduisons également un modèle unifié de matting, nommé P3M-Net, compatible avec des architectures de base aussi bien CNN qu’transformers. Pour atténuer davantage le fossé de performance entre domaines dans le cadre de PPT, nous proposons une stratégie simple mais efficace, appelée Copy and Paste (P3M-CP), qui extrait des informations faciales à partir d’images publiques de célébrités et incite le réseau à réapprendre le contexte facial à la fois au niveau des données et des caractéristiques. Des expériences étendues sur P3M-10k et sur des benchmarks publics démontrent l’avantage de P3M-Net par rapport aux méthodes de pointe, ainsi que l’efficacité de P3M-CP dans l’amélioration de la généralisation inter-domaines, soulignant ainsi l’importance significative de P3M pour les recherches futures et les applications réelles.