FIVA : Anonymisation d'images et de vidéos faciales et défense contre l'anonymisation

Dans cet article, nous présentons une nouvelle approche pour l'anonymisation faciale dans les images et les vidéos, abrégée FIVA. Notre méthode proposée est capable de maintenir une anonymisation faciale cohérente sur plusieurs images successives grâce à notre système de suivi d'identité suggéré, tout en garantissant une forte différence par rapport au visage original. FIVA permet d'obtenir 0 vrais positifs pour un taux d'acceptation erronée de 0,001. Notre travail prend en compte la question importante de la sécurité liée aux attaques de reconstruction et examine le bruit adversarial, le bruit uniforme et le bruit des paramètres pour perturber ces attaques. À cet égard, nous appliquons différentes méthodes de défense et de protection contre ces menaces à la vie privée afin de démontrer la scalabilité de FIVA. De plus, nous montrons que les modèles d'attaques de reconstruction peuvent être utilisés pour détecter les deep fakes. Enfin, nous fournissons des résultats expérimentaux démontrant comment FIVA peut même permettre l'échange de visages (face swapping), formé uniquement sur une seule image cible.