HyperAIHyperAI
il y a 2 mois

FSS-1000 : Un jeu de données à 1000 classes pour la segmentation à few-shot

Xiang Li; Tianhan Wei; Yau Pun Chen; Yu-Wing Tai; Chi-Keung Tang
FSS-1000 : Un jeu de données à 1000 classes pour la segmentation à few-shot
Résumé

Au cours des dernières années, nous avons assisté au succès de l'apprentissage profond dans la reconnaissance d'images grâce à la disponibilité de grands ensembles de données annotés par des humains tels que PASCAL VOC, ImageNet et COCO. Bien que ces ensembles de données couvrent un large éventail de catégories d'objets, il existe encore un nombre significatif d'objets qui ne sont pas inclus. Peut-on réaliser la même tâche avec peu d'annotations humaines ? Dans cet article, nous nous intéressons à la segmentation d'objets en quelques exemples (few-shot object segmentation) où le nombre d'exemples d'entraînement annotés est limité à 5 seulement. Pour évaluer et valider les performances de notre approche, nous avons construit un ensemble de données de segmentation en quelques exemples, FSS-1000, composé de 1000 classes d'objets avec une annotation pixel par pixel des segments véritables (ground-truth segmentation). Ce qui distingue FSS-1000, c'est qu'il contient un nombre important d'objets qui n'ont jamais été vus ni annotés dans les ensembles de données précédents, tels que des objets du quotidien minuscules, des marchandises, des personnages de dessins animés, des logos, etc. Nous avons construit notre modèle de base en utilisant des réseaux neuronaux standards comme VGG-16, ResNet-101 et Inception. À notre surprise, nous avons constaté que l'entraînement de notre modèle à partir de zéro en utilisant FSS-1000 donne des résultats comparables et même meilleurs que ceux obtenus avec des poids pré-entraînés sur ImageNet, qui est plus de 100 fois plus grand que FSS-1000. Notre approche et notre ensemble de données sont simples, efficaces et facilement extensibles pour apprendre la segmentation de nouvelles classes d'objets à partir de très peu d'exemples d'entraînement annotés. L'ensemble de données est disponible sur https://github.com/HKUSTCV/FSS-1000.