Command Palette
Search for a command to run...
Apprentissage partiel par étiquettes généralisé via un autoencodeur bipartite dual
Apprentissage partiel par étiquettes généralisé via un autoencodeur bipartite dual
Brian Chen Bo Wu Alireza Zareian Hanwang Zhang Shih-Fu Chang
Résumé
Nous formulons un problème pratique mais difficile : l’apprentissage partiel généralisé (GPLL). Contrairement au problème classique d’apprentissage partiel (PLL), le GPLL relâche l’hypothèse de supervision de niveau instance — où un ensemble de labels partiellement étiquette une instance — au niveau groupe : 1) un ensemble de labels partiellement étiquette un groupe d’instances, les annotations de liens entre instances et labels au sein du groupe étant manquantes ; et 2) des liens entre groupes sont autorisés — des instances d’un groupe peuvent être partiellement liées à un ensemble de labels provenant d’un autre groupe. Cette supervision ambiguë au niveau groupe est plus réaliste dans les scénarios du monde réel, car elle ne nécessite plus d’annotation au niveau instance, par exemple dans le cas de l’attribution de noms aux visages dans des vidéos, où un groupe correspond aux visages d’une même image (frame), étiquetés par un ensemble de noms présents dans la légende associée. Dans cet article, nous proposons un nouveau réseau de convolution de graphe (GCN), appelé Autoencodeur de graphe bipartite dual (DB-GAE), pour relever le défi de l’ambiguïté des étiquettes dans le cadre du GPLL. Premièrement, nous exploitons les corrélations entre groupes pour représenter les groupes d’instances sous la forme de graphes bipartites duals : un graphe intra-groupe et un graphe inter-groupe, qui se complètent mutuellement afin de résoudre les ambiguïtés de lien. Deuxièmement, nous concevons un autoencodeur basé sur un GCN pour encoder et décoder ces deux graphes, les reconstructions étant considérées comme des résultats affinés. Il est à noter que DB-GAE est auto-supervisé et transductif, puisqu’il utilise uniquement la supervision au niveau groupe sans étape d’entraînement hors ligne distincte. Des expériences étendues sur deux jeux de données du monde réel montrent que DB-GAE surpasse significativement le meilleur modèle de référence, avec une amélioration absolue de 0,159 en score F1 et de 24,8 % en précision. Nous fournissons également une analyse détaillée des différents niveaux d’ambiguïté des étiquettes.