Identification non supervisée de personnes par apprentissage de multietiquettes souples

Bien que l'identification de personnes non supervisée (RE-ID) ait suscité une attention croissante de la recherche en raison de son potentiel pour résoudre le problème d'évolutivité des modèles RE-ID supervisés, il est très difficile d'apprendre des informations discriminantes en l'absence d'étiquettes par paires entre des vues caméra disjointes. Pour surmonter ce problème, nous proposons un modèle profond pour l'apprentissage de multietiquetage doux dans le cadre de l'identification non supervisée. L'idée consiste à apprendre un multietiquetage doux (vecteur de probabilité d'étiquette réelle) pour chaque personne non étiquetée en la comparant et en la représentant par rapport à un ensemble de personnes de référence connues provenant d'un domaine auxiliaire. Nous proposons également l'extraction ciblée des exemples négatifs difficiles guidée par le multietiquetage doux afin d'apprendre une empreinte discriminante pour le domaine cible non étiqueté en explorant la cohérence de similarité des caractéristiques visuelles et du multietiquetage doux des paires cibles non étiquetées. Comme la plupart des paires cibles sont des paires inter-vues, nous développons l'apprentissage de multietiquetage doux cohérent inter-vues pour atteindre l'objectif d'apprentissage selon lequel les multietiquetages doux sont constamment bons à travers différentes vues caméra. Pour permettre un apprentissage efficace du multietiquetage doux, nous introduisons l'apprentissage par agent de référence afin de représenter chaque personne de référence par un agent de référence dans une empreinte conjointe. Nous évaluons notre modèle profond unifié sur Market-1501 et DukeMTMC-reID. Notre modèle surpassent nettement les méthodes RE-ID non supervisées les plus avancées actuellement disponibles. Le code source est disponible à l'adresse suivante : https://github.com/KovenYu/MAR.