Les humains n'ont pas besoin de labelliser davantage d'humains : Occlusion Copy & Paste pour la segmentation d'instances d'humains occlus

Les réseaux modernes de détection d'objets et de segmentation d'instances peinent à identifier les humains dans des scènes surpeuplées ou fortement occultées. Pourtant, ce sont souvent des situations où nous avons besoin que nos détecteurs fonctionnent efficacement. De nombreuses études ont abordé ce problème en apportant des améliorations centrées sur le modèle. Bien qu'elles aient montré une certaine efficacité, ces méthodes supervisées nécessitent toujours un nombre suffisant d'exemples pertinents (c'est-à-dire des humains occultés) pendant l'entraînement pour maximiser les améliorations. Dans notre travail, nous proposons une approche simple mais efficace centrée sur les données, appelée Occlusion Copy & Paste, pour introduire des exemples occultés aux modèles pendant l'entraînement. Nous adaptons la méthode générale de copie et collage d'augmentation pour résoudre le problème difficile de l'occultation intra-classe. Cette approche améliore la performance de la segmentation d'instances dans des scénarios d'occultation gratuitement, simplement en exploitant les jeux de données existants à grande échelle, sans nécessiter de données supplémentaires ni de labellisation manuelle. Dans une étude rigoureuse, nous montrons si diverses améliorations proposées pour l'augmentation par copie et collage contribuent effectivement à une meilleure performance. Notre méthode d'augmentation par Occlusion Copy & Paste est facilement interopérable avec tous les modèles : en l'appliquant simplement à un modèle récent de segmentation d'instances générique sans modification explicite de l'architecture du modèle pour traiter l'occultation, nous obtenons des performances de pointe en segmentation d'instances sur le jeu de données très difficile OCHuman. Le code source est disponible à l'adresse suivante : https://github.com/levan92/occlusion-copy-paste.